
22.07.2023 13:33
AI21 Labs запускає функцію проти галюцинацій для чат-ботів GPT
Contextual Answers розроблений для підприємств, але може мати далекосяжні наслідки для сектору генеративного ШІ.
AI21 Labs нещодавно запустила “Контекстні відповіді”, механізм запитань-відповідей для великих мовних моделей (LLM).
При підключенні до LLM новий рушій дозволяє користувачам завантажувати власні бібліотеки даних, щоб обмежити вихідні дані моделі конкретною інформацією.
Запуск ChatGPT та подібних продуктів штучного інтелекту (ШІ) змінив парадигму індустрії ШІ, але брак довіри до них робить їх впровадження складною перспективою для багатьох компаній.
Згідно з дослідженнями, працівники витрачають майже половину свого робочого дня на пошук інформації. Це відкриває величезні можливості для чат-ботів, здатних виконувати пошукові функції, однак більшість чат-ботів не орієнтовані на підприємства.
AI21 розробила Contextual Answers, щоб заповнити прогалину між чат-ботами, призначеними для загального використання, і сервісами, що відповідають на запитання на рівні підприємства, надавши користувачам можливість створювати власні бібліотеки даних і документів.
Згідно з повідомленням у блозі AI21, Contextual Answers дозволяє користувачам керувати відповідями штучного інтелекту без перенавчання моделей, тим самим зменшуючи деякі з найбільших перешкод на шляху до впровадження:
“Більшість компаній намагаються впроваджувати (штучний інтелект), посилаючись на вартість, складність і відсутність спеціалізації моделей на їхніх організаційних даних, що призводить до неправильних, “галюцинаційних” або невідповідних до контексту відповідей”.
Однією з невирішених проблем, пов’язаних з розробкою корисних ШР, таких як ChatGPT від OpenAI або Bard від Google, є навчання їх виражати невпевненість у собі.
Зазвичай, коли користувач запитує чат-бота, він видає відповідь, навіть якщо в його наборі даних недостатньо інформації, щоб надати фактичну інформацію. У таких випадках замість того, щоб видати непевну відповідь на кшталт “Я не знаю”, чат-боти часто вигадують інформацію, яка не має під собою жодного фактичного підґрунтя.
Дослідники називають такі результати “галюцинаціями”, оскільки машини генерують інформацію, якої, здавалося б, не існує в їхніх наборах даних, подібно до людей, які бачать речі, яких насправді не існує.
Згідно з A121, контекстні відповіді повинні повністю зменшити проблему галюцинацій, або виводячи інформацію тільки тоді, коли вона має відношення до наданої користувачем документації, або не виводячи нічого взагалі.
У секторах, де точність важливіша за автоматизацію, таких як фінанси і право, впровадження систем генеративного попередньо навченого трансформатора (GPT) дало різні результати.
Експерти продовжують рекомендувати бути обережними у фінансовій сфері при використанні систем GPT через їхню схильність викликати галюцинації або змішувати інформацію, навіть якщо вони підключені до Інтернету і можуть посилатися на джерела. А в юридичному секторі юристам загрожують штрафи і санкції за те, що вони покладаються на результати, отримані за допомогою ChatGPT під час розгляду справи.
Завдяки попередньому завантаженню систем штучного інтелекту відповідними даними і втручанню до того, як система може галюцинувати нефактичну інформацію, AI21, схоже, продемонстрував пом’якшення проблеми галюцинацій.
Це може призвести до масового впровадження, особливо у фінтех-сфері, де традиційні фінансові установи неохоче приймають технологію GPT, а криптовалютні та блокчейн-спільноти в кращому випадку використовують чат-ботів з перемінним успіхом.