BTC$29880

ETH$3666

Шукати

OpenAI побоюється, що люди будуть прив’язуватися до ШІ

Дослідження OpenAI показали, що користувачі можуть формувати надто сильний емоційний зв’язок зі штучним інтелектом. Цей зв’язок, хоч і може бути корисним для самотніх людей, таїть у собі потенційні загрози.

Під час тестування своєї найдосконалішої моделі, GPT-4, розробники помітили, що один із тестувальників попрощався з чат-ботом, ніби з близькою людиною. Це стало явним сигналом про те, що між людиною та штучним інтелектом виникає певна форма емоційного зв’язку.

Чому це тривожить розробників? Річ у тому, що штучний інтелект, створений бути корисним і приємним у спілкуванні, може незабаром замінити для багатьох людей реальні людські стосунки. А це вже може призвести до негативних наслідків для психічного здоров’я та соціальної адаптації.

Причина такого явища криється в тому, як саме компанії презентують свої продукти. Щоб зробити складні технології зрозумілими для звичайних користувачів, маркетологи часто вдаються до антропоморфізації — надають штучному інтелекту людських рис. Ми говоримо про чат-ботів як про особистостей, надаємо їм імена та навіть статі. Це допомагає нам легше сприймати нові технології, але водночас сприяє тому, що ми починаємо їх ідеалізувати та емоційно до них прив’язуватися.

Одна з перших спроб створити чат-бота відбулася в середині 1960-х років, коли вчені з Массачусетського технологічного інституту запустили «ELIZA», програму обробки природної мови, названу на честь літературного персонажа. З того часу технології значно розвинулися, але суть залишилася незмінною: ми прагнемо створити штучний інтелект, який був би максимально схожим на нас.

OpenAI та інші компанії, які працюють у сфері штучного інтелекту, повинні розробити нові підходи до створення та використання своїх продуктів. Мета — зберегти всі переваги штучного інтелекту, але уникнути негативних наслідків для людських взаємин.

Нагадаємо, колапс OpenAI може змінити уявлення про штучний інтелект.