BTC$29880

ETH$3666

Шукати

OpenAI набирає «червону команду» з кібербезпеки

Прагнучи посилити безпеку свого популярного чат-бота, OpenAI звертається до зовнішніх експертів з кібербезпеки та проникнення, також відомих як «червоні команди», щоб знайти вразливості в AI-платформі.

Компанія заявляє, що шукає експертів у різних галузях, включаючи когнітивні та комп’ютерні науки, економіку, охорону здоров’я та кібербезпеку. Метою OpenAI є підвищення безпеки та етичності моделей штучного інтелекту.

Відкрите запрошення з’явилося в той час, коли Федеральна торгова комісія США розпочала розслідування щодо методів збору даних та безпеки OpenAI, а політики та корпорації задаються питанням, наскільки безпечним є використання ChatGPT.

«[Це] краудсорсинг волонтерів, які приєднуються і роблять цікаві речі з безпеки», — розповів співзасновник Halborn і директор з інформаційної безпеки Стівен Уолбройл (Steven Walbroehl). «Це можливість для нетворкінгу і шанс бути на передовій технологій».

«Хакери — найкращі з них — люблять зламувати новітні технології», — додав Уолбройл.

Щоб підсолодити угоду, OpenAI заявляє, що члени червоної команди отримають компенсацію, а попередній досвід роботи зі штучним інтелектом не є обов’язковим — потрібна лише готовність ділитися різноманітними поглядами.

«Ми оголошуємо відкритий набір в мережу червоних команд OpenAI і запрошуємо експертів, зацікавлених у підвищенні безпеки моделей OpenAI, приєднатися до наших зусиль», — написали в OpenAI. «Ми шукаємо експертів з різних галузей для співпраці з нами в ретельній оцінці та створенні „червоних команд“ для наших моделей ШІ».

Червоні команди — це фахівці з кібербезпеки, які є експертами з атак — також відомих як тестування на проникнення або пен-тестування — систем і виявлення вразливостей. На противагу цьому, сині команди описують фахівців з кібербезпеки, які захищають системи від атак.

«Окрім приєднання до мережі, є й інші можливості для співпраці, щоб зробити свій внесок у безпеку ШІ», — продовжують в OpenAI. «Наприклад, одним з варіантів є створення або проведення оцінки безпеки систем ШІ та аналіз результатів».

Заснована у 2015 році, OpenAI привернула увагу громадськості наприкінці минулого року з публічним запуском ChatGPT і більш досконалого GPT-4 у березні, що штурмує світ технологій і виводить генеративний ШІ в мейнстрім.

У липні OpenAI приєдналася до Google, Microsoft та інших компаній, взявши на себе зобов’язання розробляти безпечні та надійні інструменти ШІ.

У той час як інструменти генеративного ШІ, такі як ChatGPT, революціонізували те, як люди створюють контент і споживають інформацію, чат-боти зі штучним інтелектом не обійшлися без суперечок, викликаючи звинувачення в упередженості, расизмі, брехні (галюцинаціях) і недостатній прозорості щодо того, як і де зберігаються дані користувачів.

Занепокоєння щодо конфіденційності користувачів призвело до того, що кілька країн, включаючи Італію, Китай, Північну Корею, Кубу, Іран і Сирію, ввели заборону на використання ChatGPT в межах своїх кордонів. У відповідь на це OpenAI оновив ChatGPT, додавши до нього функцію видалення історії чату, щоб підвищити конфіденційність користувачів.

Програма Red Team — це остання спроба OpenAI залучити провідних фахівців з безпеки для оцінки своєї технології. У червні OpenAI пообіцяла виділити 1 мільйон доларів на заходи та ініціативи з кібербезпеки, які використовують штучний інтелект.

Хоча компанія заявила, що дослідники не обмежені в публікації своїх висновків або використанні інших можливостей, OpenAI зазначила, що учасники програми повинні знати, що участь у червоних командах та інших проектах часто підпадає під дію угод про нерозголошення (NDA) або «повинна залишатися конфіденційною протягом невизначеного періоду часу».

«Ми заохочуємо творчість і експерименти в оцінці систем ШІ», — підсумували в OpenAI. «Після завершення ми запрошуємо вас поділитися своїми оцінками в репозиторії Evals з відкритим вихідним кодом для використання більш широкою спільнотою ШІ».