BTC$29880

ETH$3666

Шукати

Прискорений, системний шлях до навчання великих мовних моделей для підприємств

Чат-боти зі штучним інтелектом навчилися імітувати різні стилі та завдання, але їм часто бракує узгодженості та точності через обмеженість навчальних даних. Для вирішення цих проблем IBM представила революційне рішення під назвою «Масштабне вирівнювання для чат-ботів» (LAB). LAB пропонує системний підхід до генерування синтетичних даних та ефективного і результативного засвоєння нових знань у великих мовних моделях.

Одним з ключових компонентів LAB від IBM є систематичне генерування синтетичних даних, пристосованих до окремих завдань. Цей метод генерації даних ґрунтується на таксономії, яка класифікує знання та навички, необхідні чат-ботам. Таксономія (групування речей або принципів, що лежать в основі цього групування) спрямовує другу LLM, відому як модель вчителя, на генерування високоякісних інструкцій, що містять запитання та відповіді, які відповідають поставленому завданню.

Огляд методу вирівнювання LAB. Починаючи з кореня таксономії, дані куруються в кожній групі верхнього рівня, а приклади у вузлах листків використовуються генераторами синтетичних даних для генерації значень порядків величин для фази поетапного навчання для налаштування інструкцій. Джерело

Протокол поетапного навчання IBM передбачає, що спочатку великі мовні моделі отримують прості інструкції, а потім поступово набувають більш складних навичок, що відповідають конкретному завданню. Цей поетапний підхід дозволяє LLM систематично спиратися на наявні знання, подібно до процесів навчання людини. Модель навчається з низькою швидкістю, з тривалими періодами розминки і великими партіями даних для забезпечення оптимального навчання.

Модель вчителя виконує ретельну перевірку якості згенерованих інструкцій, щоб відсіяти нерелевантні або помилкові дані. Потім перевірені інструкції розподіляються за такими категоріями, як знання, базові навички та композиційні навички, а потім передаються великим мовним моделям у два етапи. Такий поетапний режим навчання забезпечує всебічне засвоєння матеріалу і запобігає перезапису раніше засвоєної інформації.

IBM Research провела масштабні експерименти з використанням LAB і навчила LLM з відкритим вихідним кодом, таких як Labradorite 13B і Merlinite 7B, на синтетичних даних. Вирівняні моделі продемонстрували конкурентоспроможну продуктивність у тестах, пов’язаних зі зв’язною розмовою, міркуваннями на основі здорового глузду та взаємодією. Більше того, вирівняні за допомогою LAB моделі перевершили чат-ботів, навчених на даних, створених людиною, і навіть тих, що навчалися на значно більшій кількості синтетичних даних.

Метод LAB від IBM має кілька переваг над традиційними підходами до навчання ШІ. Він дозволяє систематично генерувати різноманітні та специфічні для конкретного завдання синтетичні дані, що призводить до покращення продуктивності та узагальнення моделі. LAB також спрощує засвоєння нових знань і навичок у великих мовних моделях без шкоди для наявних можливостей. Крім того, LAB вирівнює умови змагання, дозволяючи невеликим моделям з відкритим вихідним кодом конкурувати з великими, попередньо навченими моделями, що працюють за інструкціями, створеними людиною.

Масштабне вирівнювання для чат-ботів (LAB) від IBM є значним досягненням у методології навчання ШІ. Використовуючи синтетичну генерацію даних і протоколи поетапного навчання, LAB підвищує продуктивність, адаптивність і масштабованість LLM. Успіх моделей, створених за допомогою LAB, у різних тестах підкреслює її ефективність у створенні високопродуктивних і точних чат-ботів. Новітній підхід IBM встановлює новий стандарт для вирівнювання моделей ШІ, прокладаючи шлях до більш досконалих і надійних додатків ШІ в майбутньому.