BTC$29880

ETH$3666

Шукати

Відеомодель Runway Gen-3 Alpha тепер доступна (але є підступ)

Компанія Runway, розробник штучного інтелекту для створення відео, оголосила про загальний доступ до своєї останньої моделі Gen-3 Alpha. Вперше представлений кілька тижнів тому, Gen-3 Alpha дозволяє користувачам створювати гіперреалістичні відео зі штучним інтелектом на основі тексту, зображень або відеопідказок. З цим релізом будь-хто, хто зареєструвався на платформі Runway, може отримати доступ до можливостей моделі для покращення різноманітних творчих проєктів, включаючи рекламу. Однак, на відміну від своїх попередників, Gen-3 Alpha вимагає платної підписки, яка починається від $12 на місяць та оплачується щорічно.

Gen-3 Alpha є значним оновленням у порівнянні з попередніми моделями Gen-1 та Gen-2, які були випущені минулого року. Після періоду зосередження на оновленні функцій платформи, Runway знову увійшов у конкурентний простір створення відео зі штучним інтелектом завдяки цій новій моделі. Навчена на відео та зображеннях з детальними підписами, Gen-3 Alpha досягає успіху у створенні високоякісних роликів з виразними ефектами та переходами, точними ключовими кадрами, а також яскравими людськими персонажами, які виконують широкий спектр дій та емоцій.

Покращення продуктивності моделі спостерігається у швидкості, точності, послідовності та русі, про що свідчать приклади з Runway. Над розробкою працювала команда вчених-дослідників, інженерів та художників, хоча конкретні дані про джерела навчальних даних залишаються нерозкритими.

Після широкого розповсюдження, користувачі можуть підписатися на платний план Runway, щоб використовувати Gen-3 Alpha для різних творчих застосувань. Спочатку модель підтримуватиме режим перетворення тексту у відео, що дозволить користувачам створювати відео з підказок природною мовою. У майбутньому Runway планує розширити можливості моделі, додавши режими «зображення-відео» та «відео до відео». Крім того, вона буде інтегрована з такими функціями платформи, як Motion Brush, Advanced Camera Controls та режисерський режим. Створювані відео будуть тривати до 10 секунд, а швидкість генерації залежатиме від довжини відео, що перевершує багато моделей відео зі штучним інтелектом, але є меншою, ніж одна хвилина, яка передбачається в майбутньому в Sora від OpenAI.

Поки творча спільнота починає вивчати потенціал Gen-3 Alpha, такі відомі діячі, як Емад Мостак, колишній генеральний директор Stability AI, вже протестували її продуктивність у порівнянні з конкурентами, такими як Sora. Цей реліз — лише початок для Gen-3 Alpha, протягом наступних місяців очікуються вдосконалення, а також планується випуск безплатної версії.

RunwayML описує Gen-3 Alpha як першу в серії моделей, навчених на новій масштабній мультимодальній архітектурі. Ця розробка є кроком до створення загальних моделей світу, здатних представляти та моделювати широкий спектр реальних сценаріїв і взаємодій.