Вышла HunyuanVideo 1.5 — новая открытая ИИ-модель для генерации видео

Сохраняется 0 В закладки 0 В закладках 0
Tencent представила HunyuanVideo 1.5 — новую открытую модель для генерации видео, которая работает всего с 8,3 млрд параметров и запускается на обычной видеокарте. Компания утверждает, что это теперь самое мощное open-source решение в своей категории — и по качеству, и по доступности.
Модель уже опубликована на Hugging Face: доступны версии для генерации из текста и по изображению, варианты 480p/720p и отдельные модели для разрешения до 1080p. Работает на потребительских GPU с примерно 14 ГБ видеопамяти. Подробности в материале Postium.


Что умеет HunyuanVideo 1.5 и как работает
В основе HunyuanVideo 1.5 — архитектура Diffusion Transformer (DiT), которая генерирует видео в сжатом латентном пространстве. Специальный 3D VAE уменьшает объём данных, а новый механизм внимания SSTA ускоряет расчёты почти вдвое на длинных роликах.
Базовая модель выдаёт 5–10 секунд видео в 480p или 720p, после чего подключается отдельный супер-разрешающий модуль, который поднимает результат до 1080p и убирает артефакты. Для улучшения качества запросов модель может автоматически переписывать промпты через внешнюю LLM.
https://postium.ru/wp-content/uploads/2025/11/1afbc30f933f95e262ea.mp4
Главное — модель стала заметно легче. При 8,3 млрд параметров она работает быстрее и требует меньше памяти. Её можно запускать на обычной видеокарте, а не на серверных GPU.
Ещё один слой — работа с промптами для генерации видео. В документации подчёркивается, что длинные, детальные запросы сильно повышают качество видео, для этого есть отдельный «Prompt Writing Handbook». Модель лучше справляется, когда ей заранее задают стиль, ракурс, движения камеры и поведение объектов — тогда сцена получается стабильнее и реалистичнее.
https://postium.ru/wp-content/uploads/2025/11/80131c3fb127281b8752.mp4
Ускорение внимания, встроенное супер-разрешение, набор дистиллированных и sparse-моделей и поддержка ComfyUI делают HunyuanVideo 1.5 не исследовательским прототипом, а полноценным рабочим инструментом.
Как пользоваться HunyuanVideo 1.5
Зайдите на страницу проекта на Hugging Face, скачайте нужные модели — версии для 480p/720p, режимы T2V/I2V и модули супер-разрешения. Затем установите окружение и зависимости из репозитория — этого достаточно, чтобы модель заработала локально.


Дальше можно запускать генерацию через стандартный скрипт: задать промпт, длительность и разрешение. А если не хочется работать с консолью, уже есть готовые графические решения — ComfyUI и LightX2V поддерживают HunyuanVideo 1.5 из коробки. Также, модель уже есть на плейграундах по типу fal.ai.
Почему это важно? HunyuanVideo 1.5 — большой шаг для открытых моделей. Она впервые сочетает приличное качество, HD-разрешение и возможность запуска «у себя дома».
Но важно понимать масштаб: это прорыв для open-source, а не прямая альтернатива Sora, Veo или Wan 2.5. Закрытые модели по-прежнему выигрывают в реалистичности движения, физике, длине сцен и стабильности. HunyuanVideo 1.5 решает другую задачу: делает видеогенерацию доступной для разработчиков, студий и энтузиастов без дорогого оборудования и облачных сервисов.
Напомню, Tencent развивает линейку Hunyuan уже несколько месяцев: от генерации изображений HunyuanImage 3.0 до видео-моделей. В версии 1.5 компания делает ставку на эффективность, открытость и совместимость с популярными инструментами из сообщества.
Итог: HunyuanVideo 1.5 стала быстрее, легче, доступнее и качественнее. Теперь это не экспериментальная игрушка, а реально пригодный инструмент, который работает на обычном железе и выдаёт хорошие HD-ролики.
Ранее на платформе Dreamina AI появилась возможность генерировать видео до 54 секунд по 10 кадрам.
⭐ Тестим нейросети каждый день, а то, что реально работает — сливаем в Telegram-канал: .
Тэги Нейросети
