16.10.2024 17:04
Оновлена політика безпеки компанії Anthropic ускладнює зловживання штучним інтелектом
Компанія Anthropic випустила значне оновлення своєї політики відповідального масштабування (RSP), щоб врахувати ризики, пов’язані зі підвищенням потужності систем штучного інтелекту, що використовуються для розробки Claude. Ця політика, яку було запроваджено у 2023 році, тепер включає нові протоколи та порогові значення можливостей — показники, які визначають, коли моделі штучного інтелекту досягають точки, що вимагає додаткових гарантій. Ці порогові значення зосереджені на сферах високого ризику, таких як створення біологічної зброї та автономні дослідження ШІ, що відображає прагнення Anthropic запобігти зловживанням.
Ключовим елементом оновленої політики є позиція відповідального за масштабування (RSO), який забезпечує дотримання заходів безпеки, включаючи можливість зупинити навчання або розгортання моделей ШІ, якщо не дотримуються вимоги щодо запобіжних заходів. Проактивний підхід Anthropic демонструє обізнаність в індустрії ШІ щодо необхідності балансу між швидким технологічним прогресом і надійними стандартами безпеки.
Впровадження рівнів безпеки ШІ (ASL), створених за зразком американських стандартів біобезпеки, має на меті надихнути інших розробників ШІ на прийняття схожих стандартів. Якщо модель ШІ демонструє ризиковані можливості, її переводять на вищий рівень безпеки, що викликає більш ретельну перевірку, аудит і тестування перед розгортанням.
Оновлення політики Anthropic відбувається у вирішальний момент, коли уряди країн світу обговорюють питання регулювання ШІ. Прозорий підхід компанії, включаючи публічне розкриття звітів про можливості та оцінки захисних заходів, може слугувати прототипом для майбутніх урядових нормативних актів. Зрештою, така політика позиціює Anthropic як лідера у відповідальній розробці технологій штучного інтелекту, заохочуючи індустрію надавати пріоритет безпеці при просуванні інновацій.