
21.12.2023 18:07
План США щодо безпеки штучного інтелекту зіткнувся з бюджетною кризою
Ініціатива президента США Джо Байдена щодо вирішення проблем штучного інтелекту стикається з потенційними труднощами, оскільки Національний інститут стандартів і технологій (NIST), якому доручено розробити нові стандарти для стрес-тестування систем штучного інтелекту, стикається з бюджетними обмеженнями. Розпорядження Білого дому, оголошене в жовтні, має на меті виявити упередження, приховані загрози та зловмисні тенденції у сфері штучного інтелекту. Однак NIST не має необхідних коштів, щоб самостійно завершити цю роботу до 26 липня 2024 року. Ельхам Табассі, заступник директора з нових технологій NIST, заявив, що цей термін є «майже неможливим».
Деякі члени Конгресу занепокоєні тим, що NIST може значною мірою покладатися на експертизу в галузі ШІ від приватних компаній, що викликає питання щодо прозорості та потенційного конфлікту інтересів. Незважаючи на те, що NIST покликаний регулювати ШІ, його бюджет у розмірі 1,6 мільярда доларів на 2023 рік видається недостатнім для проведення масштабних досліджень, необхідних для тестування безпеки ШІ. Запропоноване збільшення бюджету на 29% на 2024 рік, яке напряму не пов’язане зі штучним інтелектом, може не вирішити цю проблему.
16 грудня шість членів Конгресу підписали відкритого листа, в якому висловили стурбованість тим, що NIST співпрацює з приватними компаніями в умовах відсутності прозорих процесів. У листі наголошується на поспішних зусиллях щодо визначення стандартів на тлі значних розбіжностей серед експертів у галузі ШІ щодо оцінки та визначення проблем безпеки в системах з технологіями штучного інтелекту.
Поточні дії NIST щодо підвищення прозорості включають в себе запит від 19 грудня на отримання інформації від зовнішніх експертів і компаній щодо стандартів для оцінки та тестування моделей ШІ. Однак серед експертів з питань штучного інтелекту зберігається занепокоєння, які підкреслюють необхідність того, щоб NIST мав більше ресурсів за межами своїх повноважень.
Ясін Джерніте, керівник напрямку «Машинне навчання та суспільство» в Hugging Face, зазначає, що великі технологічні компанії мають значно більше ресурсів, ніж NIST. Тиск на NIST щодо пошуку негайних рішень для довгострокових проблем ШІ, особливо з огляду на його обмежені ресурси, створює проблеми. Маргарет Мітчелл, головний науковець з питань етики в Hugging Face, зазначає, що зростаюча секретність навколо комерційних моделей штучного інтелекту ускладнює вимірювання для NIST.
Згідно з розпорядженням Білого дому, NIST зобов’язаний створити Інститут безпеки штучного інтелекту, в якому будуть викладені керівні принципи оцінки моделей штучного інтелекту, принципи «червоної команди», а також план досягнення консенсусу з союзними США країнами щодо стандартів NIST. Агресивний дедлайн і складний характер досліджень у сфері безпеки технологій штучного інтелекту ставлять перед NIST виклики у виконанні своєї лідерської ролі.
Хоча взаємодія між NIST і великими технологічними компаніями залишається незрозумілою, в обговореннях, що передували виданню указу, брали участь Microsoft, Anthropic (стартап, створений колишніми співробітниками OpenAI), Partnership on AI (представляє великі технологічні компанії) і Future of Life Institute (некомерційна організація, що займається питаннями екзистенціальних ризиків). Тиск на NIST з вимогою надати негайні рішення в умовах обмежених ресурсів підкреслює складність ефективного реагування на ризики, пов’язані зі штучним інтелектом.