BTC$29880

ETH$3666

Шукати

Як користуватися інструментами генеративного штучного інтелекту, зберігаючи конфіденційність

Вибух популярності інструментів, що пропонують штучний інтелект для споживачів, спричинив багато дебатів: ці інструменти обіцяють трансформувати способи, якими ми живемо і працюємо, а також породжують фундаментальні питання про те, як ми можемо пристосуватися до світу, в якому вони широко використовуються майже для будь-чого.

Як і з будь-якою новою технологією що їде на хвилі початкової популярності та інтересу, варто бути обережним при використанні генераторів штучного інтелекту та ботів – зокрема, щодо того, наскільки ви віддаєте свою конфіденційність і безпеку в обмін за можливість їх використання.

Цілком варто встановити деякі обмеження на початку вашого шляху з цими інструментами або навіть вирішити не мати з ними справи, залежно від того, як збираються та обробляються ваші дані. Ось на що вам слід звернути увагу та як ви можете повернути контроль.

Вибір надійних інструментів

Оберіть інструменти генеративного штучного інтелекту від відомих, довірених постачальників. Переконайтеся, що ці компанії мають політику конфіденційності та використовують захищені протоколи для збереження ваших даних.

Переконайтеся, що інструменти штучного інтелекту чесно говорять про те, як використовуються дані.

Перевірка умов та умов користування додатками перед їх використанням – це морока, але цілком варта зусиль, тому що ви хочете знати, з чим ви погоджуєтеся. Як правило, використання додатка означає передачу компанії, що стоїть за ним, прав на все, що ви вводите, і іноді на все, що вони можуть дізнатися про вас, і навіть більше.

Наприклад, політику конфіденційності OpenAI можна знайти тут – і тут більше інформації про збір даних. За замовчуванням будь-що, про що ви розмовляєте з ChatGPT, може використовуватися для допомоги його основній великій мовній моделі (LLM).

Особиста інформація також може використовуватися для вдосконалення послуг OpenAI та розробки нових програм і сервісів. Коротко кажучи, у них є доступ до всього, що ви робите на DALL-E або ChatGPT, і ви довіряєте OpenAI, що вони не будуть робити нічого темного (і ефективно захищатимуть свої сервери від спроб вторгнення).

Така ж історія з політикою конфіденційності Google, яку можна знайти тут. Тут є деякі додаткові нотатки для Google Bard: інформація, яку ви вводите у чат-бота, буде зібрана “для забезпечення, вдосконалення та розробки продуктів і послуг Google та технологій машинного навчання”. Як і будь-які дані, які Google отримує від вас, дані Bard можуть використовуватися для персоналізації реклами, яку ви бачите.

Якщо можливо, спробуйте використовувати генеративні моделі, які працюють локально на вашому пристрої, а не на хмарних серверах. Це дозволить вам зберігати контроль над своїми даними та захищати приватність.

Дивіться, чим ділитеся

Можливо, не є хорошою ідеєю завантажувати своє власне обличчя для обробки штучним інтелектом.

Фактично, будь-що, що ви вводите або створюєте з допомогою інструментів штучного інтелекту, ймовірно, буде використано для подальшого вдосконалення ШІ та використовуватиметься розробниками на їх розсуд. З цим на увазі – і постійною загрозою можливості витоку даних, яку неможливо повністю виключити – варто бути досить обережним та обмежуватися тим, що ви вводите у ці двигуни.

Особливо стосовно інструментів, які створюють штучний інтелектований варіант вашого обличчя, наприклад – яких, здається, стає все більше – ми не радили б їх використовувати, якщо ви не готові до можливості побачити ШІ-генеровані образи свого обличчя в творі інших людей.

Що стосується тексту, діліться абсолютно без будь-якої особистої, конфіденційної або чутливої інформації: ми вже бачили витоки частин історій чатів через помилки. Не дайте собі спокусі замовити ChatGPT зведення квартальних фінансових результатів вашої компанії або написати лист із вашою адресою та банківськими реквізитами – така інформація краще залишити поза межами цих генеративних інструментів штучного інтелекту, особливо тому, що, як визнає Microsoft, деякі ШІ підказки перевіряються вручну співробітниками для перевірки на неприпустиму поведінку.

Справедливо варто зазначити, що розробники ШІ попереджають про це. “Не включайте конфіденційну або чутливу інформацію у ваші розмови з Bard”, попереджає Google, тоді як OpenAI закликає користувачів “не ділитися чутливим змістом”, який може потрапити на широкий інтернет через функцію спільних посилань. Якщо ви не хочете, щоб це сталося, краще залишити цю інформацію при собі.

Змініть налаштування

За потреби дані Google Bard можна автоматично видалити.

Ви вирішили, що згодні з політикою конфіденційності, ви контролюєте свої дії, щоб не розкривати забагато – останнім кроком є дослідження можливостей контролю за конфіденційністю та безпекою у вашому обраному інструменті штучного інтелекту. Що до гарних новин, то більшість компаній роблять ці контролі видимими та легкими в управлінні.

Google Bard слідує прикладу інших продуктів Google, таких як Gmail або Google Maps: ви можете вибрати, щоб дані, які ви передаєте йому, автоматично стиралися після певного періоду часу, або видалити дані вручну, або дозволити Google зберігати їх безстроково. Щоб знайти контролі для Bard, перейдіть сюди та зробіть свій вибір.

Так само, як Google, Microsoft об’єднує свої опції управління даними ШІ разом з налаштуваннями безпеки та конфіденційності для всіх своїх продуктів. Щоб знайти параметри конфіденційності для всього, що ви робите з продуктами Microsoft, перейдіть сюди, а потім клікніть на “Історія пошуку“, щоб переглянути (і за необхідності видалити) все, про що ви спілкувалися з ШІ Bing.

Щодо ChatGPT у вебі, натисніть на свою адресу електронної пошти (внизу зліва), потім виберіть “Налаштування” та “Управління даними“. Ви можете зупинити ChatGPT від використання ваших розмов, щоб тренувати свої моделі, але в той же час ви втратите доступ до функції історії чату. Розмови також можна видалити окремо, клікнувши на іконку кошика поряд з ними на головному екрані або, клікнувши на свою адресу електронної пошти, вибравши “Очистити розмови” і підтвердивши видалення всіх розмов.

Якщо ви користуєтеся генеративними інструментами у бізнесі або організації, регулярно проводьте аудит заходів безпеки і захисту даних, щоб переконатися в їх ефективності.