BTC$29880

ETH$3666

Шукати

Чи починає OpenAI підготовку нової моделі GPT5?

Нещодавно OpenAI оголосила про створення нового Комітету з безпеки та захисту і розпочала підготовку нової «передової моделі», що є важливим фактором у її постійних зусиллях з розвитку можливостей штучного інтелекту при одночасному забезпеченні надійних заходів безпеки. Цей комітет, до складу якого увійшли нинішні члени правління Брет Тейлор (голова правління OpenAI і співзасновник стартапу з обслуговування клієнтів Sierra AI, колишній керівник Google Maps і колишній технічний директор Facebook), Адам Д’Анджело (генеральний директор Quora і додатку-агрегатора AI-моделей Poe), Ніколь Селігман (колишня виконавча віцепрезидентка і головна юридична консультантка корпорації Sony) і Сем Альтман (нинішній генеральний директор OpenAI і один з його співзасновників), відіграватиме вирішальну роль в управлінні розвитком і наглядом за новою моделлю ШІ протягом наступних 90 днів.

«Нещодавно OpenAI розпочала навчання своєї наступної передової моделі, і ми очікуємо, що отримані в результаті системи виведуть нас на наступний рівень можливостей на шляху до AGI. Ми пишаємося тим, що створюємо і випускаємо моделі, які є провідними в галузі як за можливостями, так і за безпекою, але ми вітаємо активну дискусію в цей важливий момент”, — повідомляє OpenAI в блозі компанії.

Нова передова модель і заходи безпеки

Нова флагманська модель OpenAI, що має розширити межі можливостей штучного інтелекту на шляху до створення загального штучного інтелекту (AGI), наразі перебуває в стадії розробки. Компанія підкреслює важливість безпеки та провідних можливостей галузі, прагнучи сприяти активним дебатам у цей вирішальний момент. Основним завданням Комітету з безпеки та захисту є оцінка та вдосконалення процесів і засобів захисту OpenAI, а рекомендації мають бути надані раді директорів до 26 серпня 2024 року. Цей 90-денний період є стандартною бізнес-метрикою для оцінки та надання зворотного зв’язку щодо процесів, обраний для того, щоб збалансувати ретельність і своєчасність.

Склад та суперечки навколо Комітету

Склад комітету зазнав критики за недостатню незалежність, оскільки до нього увійшли керівники OpenAI. Ця внутрішня оцінка викликала занепокоєння щодо потенційної упередженості та конфлікту інтересів. Правління OpenAI, включно з новими членами, які увійшли до нього в березні, і раніше перебувало під пильною увагою щодо процесів прийняття рішень. Попереднє правління зіткнулося з негативною реакцією через звільнення, а потім поновлення на посаді генерального директора Сема Альтмана, а нинішнє правління критикували за гендерний дисбаланс, хоча з тих пір воно поповнилося різноманітними членами, такими як Сью Десмонд-Хелльман (колишня генеральна директорка Фонду Білла і Мелінди Гейтс), Фіджі Сімо (генеральна директорка і голова правління Instacart).

Виклики та критика

OpenAI пережила неспокійний період, особливо після випуску своєї останньої моделі штучного інтелекту, GPT-4o. Попри технологічний прогрес, компанія зіткнулася з проблемами у зв’язках з громадськістю, включаючи звинувачення з боку Скарлетт Йоханссон і внутрішні відставки ключових фігур. Критика поширюється на те, як OpenAI поводиться з трудовими угодами з працівниками та надає пріоритет безпеці над розробкою продукту. Розформування команди супераналізу, яка займалася захистом від суперінтелекту, ще більше посилює ці побоювання.

Перспективи на майбутнє

Попри перелічені виклики, OpenAI продовжує укладати партнерства та підтримувати інтерес до своїх ШІ-технологій, зокрема, в мейнстримних ЗМІ та індустрії розваг. Нові ініціативи компанії, такі як програма Replicator, спрямована на розробку тисяч автономних систем, відображають її амбітне бачення майбутнього ШІ. Ефективність роботи нового Комітету з безпеки та захисту від критики та забезпечення суворих заходів безпеки буде мати вирішальне значення, оскільки OpenAI готується до запуску своєї наступної передової моделі.

За успіхом цих зусиль уважно стежитимуть регулятори, бізнес-партнери та широка спільнота ШІ, що потенційно визначатиме траєкторію розвитку та впровадження ШІ в найближчі роки.