BTC$29880

ETH$3666

Шукати

Вчені з Microsoft та Beihang пропонують новий метод тонкого налаштування LLM

Дослідники з Microsoft та Університету Beihang представили нову методику під назвою MoRA, яка може значно здешевити та прискорити процес тонкого налаштування великих мовних моделей (LLM).

LLM стають дедалі більш потужними, але їх навчання та налаштування може бути дорогим і часозатратним. Проте, щоб LLM працювали максимально ефективно для конкретних задач, їх потрібно «навчити» на відповідних даних. Цей процес називається fine-tuning.

Традиційні методи тонкого налаштування можуть бути дуже дорогими та потребувати багато часу, адже вони потребують оновлення всіх параметрів LLM, яких може бути мільярди. MoRA ж використовує новий підхід, який оновлює лише певну підмножину параметрів, що значно економить час та ресурси.

MoRA має низку переваг перед іншими методами тонкого налаштування:

  • Вона може значно швидше навчатися.
  • Потребує менше обчислювальних потужностей.
  • Може краще засвоювати нові знання.

Дослідники протестували MoRA на різних завданнях і виявили, що вона значно перевершує інші методи, такі як LoRA, у завданнях, які потребують запам’ятовування нових знань.

MoRA також показала хороші результати в завданнях з налаштування інструкцій та математичних міркувань.

Ця нова методика може мати значний вплив на розвиток LLM та їх використання в корпоративних додатках. Вона може зробити LLM більш доступними та зручними для використання, а також відкрити нові можливості для їх застосування.

Важливо зазначити, що MoRA все ще знаходиться на стадії розробки.

Однак дослідники з Microsoft та Beihang випустили реалізацію MoRA з відкритим кодом, яка сумісна з LoRA. Це може допомогти розробникам LLM та компаніям, які використовують LLM у своїх продуктах, дослідити та протестувати цю нову методику.