Skip Navigation
Telegram
Как разработчики радостно стреляют себе в ногу 🔫
Как разработчики радостно стреляют себе в ногу 🔫

На crackr.dev есть каталог, где трекают факапы вайбкодинга.

Вот парочка примеров, связанных с Python:

1️⃣ Supply chain через галлюцинации
Топовые LLM стабильно советовали ставить несуществующий пакет huggingface-cli (в реальности ставится через pip install "huggingface_hub[cli]").
Ребята из Lasso Security не растерялись и залили на PyPI пустышку с таким названием.

Итог — больше 30 000 реальных загрузок за пару месяцев. Это 30 тысяч разработчиков, которые бездумно скопипастили команду из чата в терминал. Идеальный вектор атаки: даже взламывать никого не надо, просто ждем, пока ИИ сам подсунет жертве вашу малварь.

2️⃣ RCE из коробки от Клода
Red Team из Databricks попросили Claude накидать мультиплеерную змейку. Сетка выдала полностью рабочий код, клиенты коннектятся, змейки ползают. Но для передачи стейта по сети Клод решил использовать pickle вместо JSON, потому что так проще сериализовать питонячьи объекты.

Для тех, кто забыл базу: pickle.loads() на сырых данных из сокета — это моментальный Remote Code Execution. Любой подключившийся клиент мог отправить специально сформированный байткод и исполнить произвольные команды на сервере. Сэкономили время на парсинге JSON — получили дыру размером с ангар.

Проблема нейросеток не в том, что они глупые. Они пишут код, который решает задачу и работает. Но архитектурную безопасность и краевые случаи сетка в расчет не берет, если её явно не заставить это делать через параноидальные промпты.

Ревьююююююю 🫵
Telegram
Вышла LTX 2


Вышла LTX 2.3 — опенсорсная модель для генерации видео

Генерирует клипы до 20 секунд со звуком, понимает вертикальный формат 9:16 для Reels и Shorts, работает в разрешении до 4K.

Но сегодня не просто про модель — а про то, как вообще запускать подобные штуки. Потому что выход любой опенсорс-модели всегда порождает один и тот же вопрос: "Окей, круто, а как это попробовать?"

Есть 4 способа. Идём от простого к сложному:

1️⃣Веб-интерфейс разработчика

У большинства моделей есть демо-страница. У LTX это ltx.io. У других моделей — обычно страница на HuggingFace с кнопкой "Try it". Пишешь промпт, жмёшь кнопку, получаешь результат. Это бесплатно, но с ограничениями: очередь, лимиты, базовые настройки.

Подходит, чтобы понять — вообще нужна тебе эта модель или нет.

2️⃣Облачные API-провайдеры

Это fal.ai, Replicate, Together AI, OpenRouter (использую его для своих проектов) и подобные. Они хостят модель на своих серверах, ты платишь за использование. У LTX 2.3 на fal.ai это от $0.06 за секунду видео в 1080p.

Подключение обычно выглядит так: регистрация, получаешь API-ключ, кидаешь Claude Code и просишь подключить конкретную модель у провайдера где взять API.

Это оптимальный вариант, если хочешь встроить генерацию в свой продукт или бота, но не хочешь разбираться с железом.

3️⃣ComfyUI — визуальный интерфейс

ComfyUI — это что-то вроде конструктора для работы с нейросетями. Чем лучше API:

⏺Деньги. При большом объёме генераций локальный запуск дешевле — платишь только за электричество.

⏺Гибкость. Можно соединить несколько моделей в одну цепочку. Например: сгенерировал картинку через Flux, тут же анимировал через LTX, потом прогнал через апскейлер. Через API так не получится.

⏺Свои LoRA. Если обучил модель на конкретном стиле или персонаже — подключаешь в пару кликов. У провайдеров это либо нельзя, либо сильно ограничено.

Нюанс: нужна видеокарта минимум с 12 ГБ видеопамяти. Если у тебя ноутбук без дискретной карты — оставайся на API.

4️⃣Запуск из терминала

Для тех, кому нужен максимальный контроль. Клонируешь репозиторий с GitHub, скачиваешь модели с HuggingFace, настраиваешь окружение. У LTX 2.3 модели весят около 47 ГБ — нужна мощная видеокарта и запас на диске.

Этот путь для разработчиков и тех, кто хочет файнтюнить модель под себя.


Какой способ выбрать?
Просто попробовать — веб-интерфейс.
Встроить в продукт — API-провайдер.
Регулярно работать с разными моделями — ComfyUI.
Полный контроль и кастомизация — терминал.

Эта схема работает не только для LTX, но и для Stable Diffusion, Flux, Wan и вообще любой опенсорс-модели.

🤖 В эпоху AI
Telegram
🤖 Испанский «скоро-единорог» Multiverse Computing выпускает компактную AI-модель в открытый доступ


Испанская компания Multiverse Computing, которую инвесторы называют «скоро-единорогом» (soonicorn) за высокий потенциал роста, представила новую версию своей сжатой языковой модели HyperNova 60B. Модель доступна для свободного скачивания на популярной платформе Hugging Face. Разработчики утверждают, что обновлённая HyperNova 60B демонстрирует более высокую производительность по сравнению с известной моделью Mistral, предлагая сообществу эффективную и оптимизированную альтернативу.

#MultiverseComputing #ЯзыковыеМодели #HuggingFace