В июне 2024 года компания Runway представила свою последнюю разработку – модель для генерации видео Gen-3 Alpha, которая теперь доступна всем пользователям.
Обученная на огромном массиве видеозаписей и изображений, Gen-3 Alpha позволяет создавать видео и изображения на основе текстовых запросов или других визуальных данных. Особое внимание уделено обучению модели с участием профессионалов из киноиндустрии, что позволяет ей лучше понимать и воспроизводить различные стили и кинематографические приемы.
Доступ к Gen-3 Alpha возможен по подписке, которая начинается от $15 в месяц. Этот триф позволяет генерировать по 62 секунды видео, что достаточно для создания коротких клипов или предварительных визуализаций для проектов. Более подробные инструкции и возможности использования можно найти на сайте Runway.
В начале 2024 в своем блоге я предполагал, что 2024 станет годом ИИ-видео. Но, похоже, поторопился и до полноценного создания видеоконтента через ИИ придется подождать еще годик другой. Сегодня результаты от Runway, SORA и Luma AI впечатляют конечно, но на уровне как это было с миджорни V4 — прикольно, но пока до уровня рабочего инструмента для создания видеоконтента на дотягивают.
Вот что умеет Gen-3 Alpha уже сегодня:
Промт: An astronaut running through an alley in Rio de Janeiro.
Промт: FPV flying through a colorful coral lined streets of an underwater suburban neighborhood.
Промт: Handheld tracking shot at night, following a dirty blue ballon floating above the ground in abandon old European street.
Промт: Subtle reflections of a woman on the window of a train moving at hyper-speed in a Japanese city.
Промт: FPV, internal locomotive cab of a train moving at hyper-speed in an old European city.
Промт: Close up shot of a living flame wisp darting through a bustling fantasy market at night.
Промт: Ultra-fast disorienting hyperlapse racing through a tunnel into a labyrinth of rapidly growing vines.
Промт: Over the shoulder shot of a woman running and watching a rocket in the distance.
Источник: habr.com