
20.09.2023 11:37
OpenAI набирає «червону команду» з кібербезпеки
Прагнучи посилити безпеку свого популярного чат-бота, OpenAI звертається до зовнішніх експертів з кібербезпеки та проникнення, також відомих як «червоні команди», щоб знайти вразливості в AI-платформі.
Компанія заявляє, що шукає експертів у різних галузях, включаючи когнітивні та комп’ютерні науки, економіку, охорону здоров’я та кібербезпеку. Метою OpenAI є підвищення безпеки та етичності моделей штучного інтелекту.
Відкрите запрошення з’явилося в той час, коли Федеральна торгова комісія США розпочала розслідування щодо методів збору даних та безпеки OpenAI, а політики та корпорації задаються питанням, наскільки безпечним є використання ChatGPT.
«[Це] краудсорсинг волонтерів, які приєднуються і роблять цікаві речі з безпеки», — розповів співзасновник Halborn і директор з інформаційної безпеки Стівен Уолбройл (Steven Walbroehl). «Це можливість для нетворкінгу і шанс бути на передовій технологій».
«Хакери — найкращі з них — люблять зламувати новітні технології», — додав Уолбройл.
Щоб підсолодити угоду, OpenAI заявляє, що члени червоної команди отримають компенсацію, а попередній досвід роботи зі штучним інтелектом не є обов’язковим — потрібна лише готовність ділитися різноманітними поглядами.
«Ми оголошуємо відкритий набір в мережу червоних команд OpenAI і запрошуємо експертів, зацікавлених у підвищенні безпеки моделей OpenAI, приєднатися до наших зусиль», — написали в OpenAI. «Ми шукаємо експертів з різних галузей для співпраці з нами в ретельній оцінці та створенні „червоних команд“ для наших моделей ШІ».
Червоні команди — це фахівці з кібербезпеки, які є експертами з атак — також відомих як тестування на проникнення або пен-тестування — систем і виявлення вразливостей. На противагу цьому, сині команди описують фахівців з кібербезпеки, які захищають системи від атак.
«Окрім приєднання до мережі, є й інші можливості для співпраці, щоб зробити свій внесок у безпеку ШІ», — продовжують в OpenAI. «Наприклад, одним з варіантів є створення або проведення оцінки безпеки систем ШІ та аналіз результатів».
Заснована у 2015 році, OpenAI привернула увагу громадськості наприкінці минулого року з публічним запуском ChatGPT і більш досконалого GPT-4 у березні, що штурмує світ технологій і виводить генеративний ШІ в мейнстрім.
У липні OpenAI приєдналася до Google, Microsoft та інших компаній, взявши на себе зобов’язання розробляти безпечні та надійні інструменти ШІ.
У той час як інструменти генеративного ШІ, такі як ChatGPT, революціонізували те, як люди створюють контент і споживають інформацію, чат-боти зі штучним інтелектом не обійшлися без суперечок, викликаючи звинувачення в упередженості, расизмі, брехні (галюцинаціях) і недостатній прозорості щодо того, як і де зберігаються дані користувачів.
Занепокоєння щодо конфіденційності користувачів призвело до того, що кілька країн, включаючи Італію, Китай, Північну Корею, Кубу, Іран і Сирію, ввели заборону на використання ChatGPT в межах своїх кордонів. У відповідь на це OpenAI оновив ChatGPT, додавши до нього функцію видалення історії чату, щоб підвищити конфіденційність користувачів.
Програма Red Team — це остання спроба OpenAI залучити провідних фахівців з безпеки для оцінки своєї технології. У червні OpenAI пообіцяла виділити 1 мільйон доларів на заходи та ініціативи з кібербезпеки, які використовують штучний інтелект.
Хоча компанія заявила, що дослідники не обмежені в публікації своїх висновків або використанні інших можливостей, OpenAI зазначила, що учасники програми повинні знати, що участь у червоних командах та інших проектах часто підпадає під дію угод про нерозголошення (NDA) або «повинна залишатися конфіденційною протягом невизначеного періоду часу».
«Ми заохочуємо творчість і експерименти в оцінці систем ШІ», — підсумували в OpenAI. «Після завершення ми запрошуємо вас поділитися своїми оцінками в репозиторії Evals з відкритим вихідним кодом для використання більш широкою спільнотою ШІ».