29.11.2023 16:22
Користувацькі чат-боти OpenAI розкривають свої секрети
Створення власного чат-бота зі штучним інтелектом не вимагає навичок програмування. З листопада OpenAI дозволяє будь-кому створювати та публікувати власні версії ChatGPT. Ці користувацькі генеративні трансформери (Generative Pretrained Transformer, GPT) охоплюють широкий спектр тем: від порад щодо віддаленої роботи до пошуку наукових робіт і навіть перетворення користувачів на персонажів Pixar.
Однак ці кастомні GPT створюють ризики для приватності. Дослідники безпеки виявили, що ці чат-боти можуть розголошувати свої початкові інструкції та файли, які використовуються для налаштування, що потенційно може призвести до витоку персональних або комерційних даних. Хоча інформація в цих чат-ботах не завжди є конфіденційною, вона може містити специфічну інформацію про домен або особисті дані, що викликає занепокоєння з приводу приватності.
Цзяхао Юй (Jiahao Yu), дослідник комп’ютерних наук з Північно-Західного університету, та інші дослідники протестували понад 200 користувацьких GPT, виявивши, що витягти інформацію з них напрочуд легко. Дослідники наголошують на необхідності усвідомлення ризиків для конфіденційності, пропонуючи більше попереджень про ін’єкції-підказки, оскільки багато розробників можуть не усвідомлювати, що завантажені файли можуть бути витягнуті.
Користувацькі GPT розроблені так, щоб їх було легко створювати, і користувачі можуть створювати їх за допомогою підписок на OpenAI. Користувачі можуть надавати інструкції та завантажувати документи, щоб покращити знання чат-бота. Однак цей процес також несе в собі ризик ненавмисного витоку інформації, про що свідчать ін’єкції-підказки. Ін’єкції-підказки передбачають, що чат-бот поводиться навмисне всупереч інструкціям, і зловмисники можуть скористатися цією вразливістю, щоб отримати доступ до інформації.
OpenAI не відповіла на запити про коментарі щодо вилучення даних з користувацьких GPT. Хоча компанія впровадила правила для запобігання поширеним ін’єкціям-підказкам, дослідники відзначають, що легкість використання вразливостей залишається проблемою. Оскільки все більше людей створюють кастомні GPT, для зменшення потенційного витоку даних рекомендується підвищувати обізнаність про ризики для конфіденційності, попереджати про ін’єкції-підказки та використовувати захисні підказки.