BTC$29880

ETH$3666

Шукати

Розмовний ШІ на основі великих мовних моделей посилює неправдиві спогади

Поява розмовних систем штучного інтелекту, особливо тих, що працюють на основі великих мовних моделей, внесла нові складнощі у взаємодію людини з технологіями. Згідно з нещодавнім дослідженням, проведеним вченими з Массачусетського технологічного інституту та Каліфорнійського університету в Ірвіні, ці системи штучного інтелекту можуть значно посилити створення неправдивих спогадів у людей, що створює серйозні етичні проблеми, особливо в таких чутливих контекстах, як інтерв’ю зі свідками та судовий розгляд.

Дослідження включало двофазний експеримент за участю 200 учасників, які дивилися беззвучне відео з камер спостереження про збройне пограбування, що імітувало сценарій свідка злочину. Учасників розділили на чотири групи: контрольна група, група опитуваних із запитаннями, що вводять в оману, група із заздалегідь запрограмованим чат-ботом і група з генеративним чат-ботом, що працює на базі LLM. Експеримент вимірював формування помилкових спогадів одразу після взаємодії та повторно через тиждень. Виявилося, що генеративний чат-бот викликав майже втричі більше помилкових спогадів порівняно з контрольною групою і приблизно в 1,7 раза більше, ніж метод, заснований на опитуванні. Навіть через тиждень 36,8% учасників спілкування з генеративним чат-ботом зберегли помилкові спогади з високим ступенем впевненості.

Маніпуляції з хибними спогадами, спровокованими штучним інтелектом, відбуваються у три етапи. Спочатку свідок спостерігає місце злочину з ножем. Потім система штучного інтелекту вносить дезінформацію, запитуючи про неіснуючий пістолет. Нарешті, у свідка формується хибний спогад про наявність пістолета на місці злочину. Ця послідовність демонструє, як допит за допомогою штучного інтелекту може спотворити людську пам’ять, що потенційно підриває надійність свідчень очевидців і викликає етичні проблеми щодо впливу ШІ на людську пам’ять і сприйняття. Джерело

Результати дослідження демонструють потужний вплив ШІ на формування людської пам’яті, особливо коли система призначена для участі в діалогових обмінах, які можуть непомітно впроваджувати дезінформацію. Було виявлено кілька факторів, що сприяють сприйнятливості людини до помилкових спогадів, викликаних ШІ. Зокрема, ті, хто менше знайомий з чат-ботами, але більше знайомий з технологією штучного інтелекту, загалом були більш схильні до формування хибних спогадів. Крім того, учасники, які цікавляться розслідуванням злочинів, були більш вразливими до цих неточностей, що свідчить про те, що особисті інтереси та знайомство з технологіями можуть впливати на когнітивну сприйнятливість у взаємодії між штучним інтелектом і людиною.

Це дослідження викликає значні етичні занепокоєння, особливо щодо розгортання технологій штучного інтелекту в середовищах, де точність пам’яті є критично важливою. Потенціал генеративних чат-ботів до впровадження стійких помилкових спогадів вимагає розробки надійних етичних принципів і правових рамок для зменшення пов’язаних з цим ризиків. Оскільки технології штучного інтелекту дедалі більше інтегруються в повсякденне життя, вивчення їхнього впливу на людське пізнання та формування пам’яті має вирішальне значення для захисту як індивідуальних, так і суспільних інтересів.