BTC$29880

ETH$3666

Шукати

Дослідники з Китаю розробили механізм корекції галюцинацій для моделей штучного інтелекту

Команда вчених з Китайського науково-технічного університету та лабораторії YouTu Lab компанії Tencent розробила інструмент, який може допомогти моделям штучного інтелекту (ШІ) уникати генерування неправдивої інформації, відомої як «галюцинації».

Галюцинації — це схильність ШІ-моделей генерувати результати, які не ґрунтуються на інформації, що міститься в їх навчальних даних. Ця проблема пронизує дослідження великих мовних моделей (LLM), і її наслідки можна побачити в таких моделях, як ChatGPT від OpenAI та Claude від Anthropic.

У кожному з наведених вище прикладів LLM галюцинує неправильну відповідь (зелене тло) на підказку (синє тло). Виправлені відповіді Woodpecker показані на червоному тлі. Джерело: Yin, та ін., 2023

Інструмент, який команда назвала «Woodpecker», використовує три окремі моделі ШІ для виявлення та виправлення галюцинацій у MLLM. Ці моделі, GPT-3.5 turbo, Grounding DINO і BLIP-2-FlanT5, працюють разом, щоб оцінити вихід MLLM і визначити, чи є він галюцинацією. Якщо так, то Woodpecker дає вказівки MLLM регенерувати свій вихід відповідно до отриманих даних.

Для виправлення галюцинацій ШІ-моделі Woodpecker використовують п’ятиступеневий процес, який включає:

  • Вилучення ключових понять з генерованого тексту.
  • Формулювання запитань про ці ключові поняття.
  • Візуальна перевірка знань для отримання відповідей на запитання.
  • Візуальна генерація тверджень, які відповідають отриманим відповідям.
  • Виправлення генерованого тексту відповідно до візуальних тверджень.

Дослідники стверджують, що їхній метод забезпечує додаткову прозорість і «підвищення точності на 30,66%/24,33% порівняно з базовим MiniGPT-4/mPLUG-Owl». Вони оцінили численні «готові» MLLM за допомогою свого методу і дійшли висновку, що Woodpecker може бути «легко інтегрований в інші MLLM».