BTC$29880

ETH$3666

Шукати

Новий генератор відео Runway Gen-3 отримує високу оцінку

Компанія Runway, відома своїм інструментом генерації відео, представила останню версію своєї моделі — Runway Gen-3. Ця нова модель, яка все ще перебуває в стадії тестування і ще не є загальнодоступною, була продемонстрована на прикладах відео, що демонструють значні покращення в узгодженості, реалістичності та оперативності порівняно з її попередницею, Gen-2. Створені відео, особливо з людськими обличчями, були високо оцінені за їхню реалістичність, а деякі члени артспільноти ШІ-мистецтва прихильно порівняли їх з очікуваним Sora від OpenAI.

Коментарі в соціальних мережах, таких як Reddit і Twitter, підкреслюють високу якість результатів роботи Gen-3. Користувачі відзначають кінематографічну та натуралістичну привабливість згенерованих роликів, припускаючи, що їх можна легко сплутати зі справжніми відео. Режисер PZF, творчий партнер Runway, також високо оцінив візуальну привабливість відеороликів Gen-3.

На додаток до відеогенератора Gen-3, Runway представляє набір інструментів для тонкого налаштування, включаючи більш зручні засоби керування зображенням і камерою. Gen-3 Alpha передбачає вдосконалення інструментів Runway для перетворення тексту у відео, зображення у відео та тексту у зображення, а також наявних режимів, таких як Motion Brush, Advanced Camera Controls та режисерський режим. Майбутні інструменти дозволять ще точніше контролювати структуру, стиль і рух.

Runway стверджує, що Gen-3 — це значний крок до їхньої мети створення «General World Models». Ці моделі мають на меті побудувати систему штучного інтелекту, яка зможе імітувати майбутні події в навколишньому середовищі, виходячи за рамки традиційного підходу, що полягає у прогнозуванні наступного ймовірного кадру на часовій шкалі.

Хоча Runway не вказала дату випуску Gen-3, співзасновник і технічний директор Анастасіс Германідіс зазначив, що Gen-3 Alpha незабаром буде доступна в продукті Runway, включаючи деякі нові режими, що забезпечуються більш потужною базовою моделлю.

Подорож Runway шляхом розвитку штучного інтелекту розпочалася у 2021 році зі співпраці з дослідниками Мюнхенського університету, які створили першу версію Stable Diffusion. Пізніше Stability AI підтримала проєкт, перетворивши його на глобальне досягнення. Відтоді Runway став важливим гравцем у сфері створення відео зі штучним інтелектом, конкуруючи з такими компаніями, як Pika Labs. Однак ландшафт змінився після анонсу OpenAI розробки Sora, яка, як очікується, може змінити сферу виробництва телевізійного контенту та фільмів.

Поруч з’явилися нові конкуренти, такі як Kling від Kuaishou та Dream Machine від Luma AI. Kling може створювати двохвилинні відео з роздільною здатністю 1080p при 30 кадрах в секунду, доступні користувачам з китайським номером телефону, а глобальна версія знаходиться в стадії розробки. Dream Machine — це безплатна платформа, яка перетворює текст на динамічні відео, перевершуючи Runway Gen-2 за якістю та узгодженістю. Однак її популярність призвела до тривалого часу очікування на створення відео.

У сфері відкритого програмного забезпечення Stable Video Diffusion пропонує міцну основу для вдосконалення, в той час, як Vidu, розроблений ShengShu Technology та Університетом Цінхуа, генерує 16-секундні відео з роздільною здатністю 1080p, використовуючи архітектуру Universal Vision Transformer.

У міру загострення конкуренції вдосконалення Runway Gen-3 та додаткові інструменти позиціюють його як сильного конкурента в просторі створення відео зі штучним інтелектом, що розвивається. Decrypt звернувся до Runway за додатковою інформацією про дату випуску та інші деталі, але поки що не отримав відповіді.