Runway анонсирует API для своих ИИ-моделей, генерирующих видео

Runway, один из ИИ-стартапов, разрабатывающих технологии генерации видео, объявил о выпуске API, позволяющего разработчикам и организациям встраивать генеративные ИИ-модели компании в сторонние платформы, приложения и сервисы.

В настоящее время API Runway находится в ограниченном доступе (есть waitlist) и предлагает на выбор только одну модель —  Gen-3 Alpha Turbo, более быструю, но менее производительную версию флагмана Runway, Gen-3 Alpha и два тарифных плана, Build (ориентированный на индивидуальных пользователей и команды) и Enterprise. Базовая цена составляет один цент за кредит (одна секунда видео стоит пять кредитов). Runway утверждает, что API уже используют «надежные стратегические партнеры», включая маркетинговую группу Omnicom.

API Runway также содержит необычные требования к раскрытию информации. Любые интерфейсы, использующие API, должны «на видном месте» размещать баннер «Powered by Runway» со ссылкой на сайт Runway, пишет компания в своем блоге, чтобы «[помочь] пользователям понять технологию, лежащую в основе [приложений], соблюдая при этом наши условия использования».

Runway, которую поддерживают инвесторы, включая Salesforce, Google и Nvidia, и которая в последний раз была оценена в 1,5 миллиарда долларов, сталкивается с жесткой конкуренцией в области создания видео, в том числе со стороны OpenAI, Google и Adobe. Ожидается, что OpenAI выпустит свою модель генерации видео, Sora, в той или иной форме этой осенью, в то время как стартапы вроде Luma Labs продолжают совершенствовать свои технологии.

Так, например, сегодня компания Luma запустила API для генерации видео, который не имеет списка ожидания и предлагает функции, превосходящие возможности Runway, включая возможность «управлять» виртуальной камерой в сценах, созданных ИИ.

С предварительным запуском Runway API Runway становится одним из первых поставщиков ИИ, предлагающих модель генерации видео через API. Но хотя API может помочь компании на пути к высокой прибыли (или хотя бы окупить высокие затраты на обучение и запуск моделей), он не решит остающиеся юридические вопросы, связанные с данными моделями и технологиями генеративного ИИ в целом.

Модели Runway, генерирующие видео, как и все модели, генерирующие видео, обучались на огромном количестве примеров видео, чтобы «выучить» закономерности в этих видео для создания нового материала. Откуда брались обучающие данные? Runway отказывается говорить, как и многие другие поставщики в наши дни —  отчасти из-за страха потерять конкурентное преимущество.

Но детали обучения также являются потенциальным источником судебных исков, связанных с интеллектуальной собственностью, если Runway будет обучаться на данных, защищенных авторским правом, без разрешения. Есть доказательства того, что это действительно так — в июльском отчете 404 Media была опубликована таблица с информацией о тренировках Runway, которая включала ссылки на каналы YouTube, принадлежащие Netflix, Disney, Rockstar Games и таким создателям, как Linus Tech Tips и MKBHD.

Неясно, использовала ли Runway в конечном итоге какие-либо видеоролики из электронной таблицы для обучения своих видеомоделей. В интервью TechCrunch в июне соучредитель Runway Anastasis Germanidis сказала только, что компания использует «кураторские внутренние наборы данных» для обучения моделей. 

Источник: habr.com

0 0 голоса
Рейтинг новости
428
0
Подписаться
Уведомить о
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии