BTC$29880

ETH$3666

Шукати

Як дослідники з UC Berkeley, ICSI та LBNL підвищують продуктивність великих мовних моделей

Методологія LLM2LLM, запропонована дослідницькою групою Каліфорнійського університету в Берклі, Інститутом корпоративних секретарів Індії та Національною лабораторією Лоуренса Берклі, пропонує новий підхід до розширення можливостей великих мовних моделей у сценаріях з низьким рівнем даних. На відміну від звичайних методів доповнення даних, які покладаються на спрощені маніпуляції, LLM2LLM використовує ітеративний процес за участю двох LLM, тобто моделі вчителя та моделі учня, для усунення конкретних недоліків та покращення продуктивності моделі.

Основна ідея LLM2LLM полягає в цілеспрямованому створенні даних для забезпечення оптимального доповнення набору навчальних даних. Спочатку модель учня налаштовується на обмеженому наборі даних і оцінюється, щоб виявити слабкі місця, де її прогнози є неточними. Потім модель викладача генерує синтетичні дані, які імітують ці складні приклади, створюючи новий навчальний набір, орієнтований на поліпшення продуктивності моделі студента при виконанні конкретних завдань.

Підвищення ефективності LLM за допомогою нового ітеративного покращення даних. Одна ітерація LLM2LLM починається з навчання та оцінювання моделі на навчальних даних. Неправильні відповіді з навчальних даних використовуються як вхідні дані для генерації додаткових зразків зі стилями, подібними до моделі вчителя. Потім навчається нова модель учня, використовуючи комбінацію старих навчальних даних і новостворених зразків. Після того, як модель налаштована, ми оцінюємо і знаходимо питання, на які модель відповіла неправильно. Модель вчителя використовується для генерування додаткових точок даних на основі неправильних прикладів, які перевіряють наявність схожих концепцій та ідей. Ці синтетичні точки даних складаються назад у навчальний набір даних. Потім цей процес повторюється, навчаючи модель учня на все більш цільових точках даних. Джерело

Ключова перевага LLM2LLM полягає в ітеративному та цілеспрямованому підході до доповнення даних. Замість того, щоб наосліп збільшувати розмір набору даних, він генерує нові дані стратегічно, усуваючи слабкі місця моделі. Ця методологія була протестована на різних наборах даних, включаючи GSM8K, CaseHOLD і SNIPS, продемонструвавши значне поліпшення продуктивності моделі від 24,2% до 32,6%.

Таким чином, LLM2LLM представляє надійне рішення проблеми дефіциту даних при навчанні LLM. Використовуючи одну велику мовну модель для покращення іншої, вона пропонує ефективний шлях до точного налаштування моделей для конкретних завдань з обмеженими початковими даними. Успіх LLM2LLM у покращенні продуктивності моделей перевершує традиційні методи доповнення та точного налаштування даних, що підкреслює його потенціал для здійснення прориву в навчанні та застосуванні LLM в задачах обробки природної мови.