Hunyuan Video 1.5: обзор нового императора видео генерации

Hunyuan Video 1.5: обзор нового императора видео генерации


94
20 поделились, 94 баллы

Hunyuan Video 1.5 представляет собой новое поколение инструментов для генерации видео, способное значительно улучшить качество и скорость создания видеоконтента. В видео рассматриваются основные функции и возможности этого программного обеспечения, которое интегрируется с ComfyUI, обеспечивая удобный интерфейс и доступ к мощным алгоритмам генерации.

Авторы демонстрируют, как Hunyuan Video 1.5 может создавать видеоматериалы на основе текстовых запросов, обеспечивая пользователям широкий спектр возможностей для творчества. Программа использует передовые технологии искусственного интеллекта, что позволяет генерировать видео высокого разрешения с детализированной графикой и реалистичными движениями.

В процессе обзора показываются разные примеры использования инструмента: от создания анимаций до генерации видеороликов из статических изображений. Также обсуждаются особенности настройки и оптимизации процессов генерации, что делает Hunyuan Video 1.5 полезным решением как для профессиональных продюсеров, так и для любителей.


Понравилось? Поделитесь с друзьями!

94
20 поделились, 94 баллы

Какова ваша реакция?

Чего? Чего?
8
Чего?
Плачу Плачу
5
Плачу
Прикол Прикол
4
Прикол
Ого Ого
3
Ого
Злой Злой
2
Злой
Ржака Ржака
1
Ржака
Ух, ты! Ух, ты!
10
Ух, ты!
Ужас Ужас
8
Ужас
Супер Супер
5
Супер
Admin

Добро пожаловать на сайт Паутина AI. Здесь я публикую свежие новости, подробные обзоры и аналитику ведущих AI-сервисов. Оставайтесь c нами что бы быть в курсе событий в мире AI.

Комментариев

Ваш адрес email не будет опубликован. Обязательные поля помечены *

  1. хозяин канала, привет! Я нуб в ИИ, но понял что хочу понять и работать в comfyui/ Подскажи откуда копать с основ.

  2. Под впечатлением от всей этой генерацией и заинтриговали мнения из видео и комментариев, поэтому захотел поделиться своим малым опытом. Дальше очень много текста)

    Сразу скажу, даже не новичок, а зародыш в плане опыта с ИИ генерацией. Неделю с копейками назад впервые поставил комфи, так как узнал что это можно сделать двойным кликом по экзешнику (то есть по человеческий). Изначально побаловался флюкс 2 дев и решил оживить получившееся изображение. Поэтому буду говорить только о i2v. Да и как будто проще получить интересующий результат из заранее подготовленного кадра. Комп у меня из средних+ (для ии) 4070тис, 64 озу, 13600кф и 980 про на 2тб. Есть стандартное расширение видео памяти на половину озу (48 в сумме) и файл подкачки на 192гб (256 в сумме).

    После мысли об оживлении изображения, я среди шаблонов комфи взял самый новый и это оказалась HunyuanVideo 1.5. После первых опытов остановился на генерации видео 480р30 длиной 10 секунд, так как быстрее будет пропустить 480р через апскейлер топаза Спустя приличное количество перегенераций и редактирования промта с изначальным кадром (вернулся во флюкс и парой генераций сменил положение в кадре, чтобы изображение сразу было в нужном движении) приблизился к результату, который мне понравился. И после наткнулся на это видео.

    И вот ту мне посадили зерно сомнения, так как все кому не лень хвалят Ван 2.2. Ну что ж, я решил поэкспериментировать. Как раз уже есть какой то отработанный промт. Для справки. С хуняном я использовал базовую модель в комфи 720р i2v. Генерация 360р 20 шагов и кешем занимает 1000 секунд, 480р 20 около 2000. Если отключить кеш и переходить к более оформленным результатам, то 480р 20 уже 3000-3500, 35 шагов 6500, 75 13-14к и 100 18к. (по приколу 480р 5 шагов тоже 1000 секунд)

    Первое что я сделал это начал пробовать стандартный Ван 2.2 на 14б, как он есть. В комфи в рабочем пространстве идет 2 копии. Первая с лорой на 4 шага, вторая просто. Начал с лоры, все стандарт, cfg 1, 2 прохода по 4 шага, параметры видео те же 480р30 10. Ушло 1000 секунд, но результат не однозначен. Четкость видео на высоте, но повсюду какая то хрень. Земля мнется, настройки контрастности шалят и тд. И это лучший результат с Ван 2.2…

    Полноценная версия без лоры с проходами по 20 шагов рендерилась 16к секунд, что не приемлемо. Так мало того, а она еще выдала дефектное видео, где все что двигалось в кадре было прокрыто сильной рябью. Пробовать дальше не стал, вернулся к версии с лорой. Но и втоге любое изменение cfg и количества шагов приводило к ухудшению результат и значительному увеличению времени рендера (например при cfg 1.5 время увеличилось в 3 раза и 3,5 раза при cfg 3,5). Выражается в замыливании, ряби, повышении насыщенности/контраста (не смотря на негативный промпт "Change of colors"). Последняя надежда была на 5б модель, но она просто не смогла выполнить промпт, попутно ломая физику работы реального мира. Зато картинка четкая и без артефактов, но вода похожая на желе и парализованная женщина долбящаяся в невидимую стену это конечно шедевр. Крест поставил сразу…

    И самое главное, ван показал себя на столько хуже с учетом того что я в хуняне использовал неправильную модель для 480р. После установки 480р i2v, промпт начал выполняться почти идеально и исчезло слоумо (негативный промт "Slow motion." в модели 720р частично ускорял видео). Жаль только скорость генерации у 480р и 720р моделей одинаковая.

    Кстати о скорости. Решил попробовать рапид модель из видео. Вставил ее в стандартную рабочую зону, заработало. Только вот результат это буквально ужас. Готовый ролик мгновенно теряет цвет становясь полу серым будто хоррор фильм или еще что, а женщина стала смесью себя и какой то 80 летней бабки. Даже физика тела изменилась. И главное эта комбинированная модель никак не ускорила генерацию. Тоже сразу крест поставил. Единственный полюс, она влезет в память 24 гб карты.

    Под конец наверное скажу, что допускаю раскрытие Ван 2.2 при какой то специальной настройке, но ведь и хунянь настроить можно, а в своем базовом виде он, в моем случае, проявил себя не то что на голову выше, а напрочь разнес Ван. Еще допускаю, что все дело в генерации i2v, тогда как в видео и комментах обсуждают в основном t2v.

  3. Автору спасибо за обор с примерами. Посмотрел, почесал затылок, решил, что пасану эту версию. Минусов вижу больше, чем плюсов. Благодаря обзору не стал скачивать, сэкономил время. Послал благодарочку, полезное дело делаешь!

  4. Огромная просьба: запиши, пожалуйста, гайд как установить комфи на пк. У меня бьет ошибку и хожу кругами, на ютюбе гайды вроде бы простые, но всё равно ошибки бьет

  5. Большая благодарность от меня за ваш крайне ценный труд! Попровал модель HV1.5 720p distilled GGUF, и у меня она выдала более корректные детали и по качеству картинки в целом лучше, чем 480p_distilled на видео с разрешением 480 х 832, но все же WAN2.2 будет покачественнее, чем Hunyuan1.5

  6. при обновлении есть ошибка обновления изи ис. не обновляет.
    rgthree-comfy] ComfyUI's new Node 2.0 rendering may be incompatible with some rgthree-comfy nodes and features, breaking some rendering as well as losing the ability to access a node's properties (a vital part of many nodes). It also appears to run MUCH more slowly spiking CPU usage and causing jankiness and unresponsiveness, especially with large workflows. Personally I am not planning to use the new Nodes 2.0 and, unfortunately, am not able to invest the time to investigate and overhaul rgthree-comfy where needed. If you have issues when Nodes 2.0 is enabled, I'd urge you to switch it off as well and join me in hoping ComfyUI is not planning to deprecate the existing, stable canvas rendering all together.

  7. запускал локально на 4090 1.5-Rapid-AIO. Генерация 5сек идет (150-160 сек). Иногда артефакты появляются. В целом картинка нормальная, но при генерации ночных сцен или там где высокий контраст, картинка к концу генерации полностью теряет контрастность и становится высветленной очень уж сильно.

  8. моделька грустная, но пожелаем им удачи сделать что-то достойное, поддерживаю исключительно с точки зрения того, что конкуренция это двигатель прогресса, а его отсутствие тормоз. А ну и конечно спасибо за видео оно сэкономило кучу времени на самостоятельный запуск и тесты.

  9. не понимаю почему все тут жалуются что хунянь медленнее, чем ван 2.2. у меня 16 гб видеопамяти. я взял для теста "хунянь рапид" и "ван 2.2 рапид". прогнал через них одну и ту же картинку с одинаковыми параметрами: разрешение 640 на 480, длина 81 кадр. хунянь создала три таких видео за 80, 79 и 79 секунд. ван 2.2 создала три видео за 125, 128 и 127 секунд.

  10. Спасибо.
    1) В облаке, к Вашим 20% скидки, добавили от облака ещё 25% скидки за первое пополнение, суммарно в итоге получилась прибавка в 45%.
    2) HunyuanVideo1.5 потестил до Вашего видео, выводы совпали с Вашими. RTX3060 12GB текст в видео 5 сек 480р — время генерации 33 минуты. Долго на локальном ПК. Wan2.2 быстрее.

  11. Вопрос, а есть ли сайты где можно за деньги обучить лору для wan2.2? Чтобы самому не устанавливать а закачать датасет, выбрать параметры и нажать обучение

  12. Круто! спасибо! Мне нравится, что Хуньян не делает лишнего, в отличие от Вана, в который походу очень много киношного напихали, что с одной стороны хорошо, а с другой как чет сделает, какое-нибудь ненужное тебе движение и фиг ты его отговоришь не делать, а Хуньяна надо прям просить делать все, что по идее дает больше контроля вроде как. Вот только на рапид он у меня что-то совсем качество шакалит, оч шумная картинка почему-то…но быстро… Кстати, а на рапид же можно 720p? может поэээээтому….

  13. ну, не знаю, что-то мне этот хуuньвсуньянь вообще не зашёл в облаке ещё можно. но брать ради этого модель для компа, да и иди оно все в трещину,тот же грок справляется в разы лучше.

  14. рад что тебе подкинули рекламу, очень в тему для твоего хардкорно нишевого (пока что) канала. уверен в ближайшее время именно локальное использование и изучение начнёт набирать обороты. ещё хотел поддержать тебя рублём, но оказалось что этот варик для меня недоступен, донейшналертс не везде работает. может я прост чот протупил, но вроде действительно нет. проверь пожалуйста, действительно ли все могут тебя поддержать из любых регионов итд, если нет, сделай дополнительные варики для поддержки, твой канал этого точно заслужил

  15. а можно как нибудь настроить чтобы в сгенерированном видео было больше движений? я заметил что в Hunyuan движения более медленные и ограниченные чем в wan 2.2

  16. Отличный ролик без лишней воды, сэкономил кучу времени для меня и проходить мимо Hunyuan Video. Как конкурент wan пусть будет, но использовать эту модель в текущем состоянии то, либо хочется поиграться, либо аллергия на wan. Примеры, это конечно, частные случае, но даже то , что на полной модели, прям так себе в плане качества. А ее требованиями, то становится совсем печальным. По поводу требований к железу, фраза верная, вот только года 2-3 назад на 8гб VRAM со скрипом работали SDXL-like модели, а сейчас на той же видюхе вполне запускаю flux2 c терпимым временем генерации.

  17. никто не против полезной инфы. Проверенная на себе реклама — это однозначно плюсик. Спасибо что опять выпустил полезнейшее видео Лайк 🙂 !

  18. хз, на счет цензуры, я закидывал фото для взрослых двух людей полностью голых в активном процессе, то все там оживлялось и двигалось примерно правильно. Может текст ту имедж более цензурированная, но к той картинке вполне нецензурный промпт писал.

Выберите формат
Пост
Форматированный текст с вставками и визуальными элементами
Опрос
Голосование для принятия решений или определения мнений
Изображение
Фото или GIF
Видео
Вставки с YouTube, Vimeo или Vine
Аудио
Вставки с SoundCloud или Mixcloud
Мем
Загружайте свои изображения для создания собственных мемов
Send this to a friend