BTC$29880

ETH$3666

Шукати

Розкриваючи таємницю великих мовних моделей

Великі мовні моделі (Large Language Models, LLM) прискорили прогрес і відкрили непередбачувані нові можливості, такі як контекстне навчання і послідовне міркування за ланцюжком думок. Однак цей прогрес супроводжується низкою небезпек, що включають як безпосередні ризики, такі як суспільні упередження, витоки даних і дезінформація, так і довгострокові ризики, які несуть потужні системи штучного інтелекту. Крім того, враховуючи їхній масштаб і ступінь досконалості, було помічено, що великі мовні моделі зазнають трансформацій у різноманітних психологічних і поведінкових аспектах. Подолання цих викликів вимагає всебічного розуміння внутрішньої роботи цих моделей.

Чи моделі великих мов просто повторюють (або зшивають разом) уривки зі своїх навчальних даних, коли генерують інформацію, яку визнають недостовірною? Точно розв’язують математичні або кодувальні задачі? Благають користувачів не вимикати їх? Чи вона встановлює нові зв’язки у своєму сховищі знань під час побудови цілісної глобальної моделі? Різні відповіді на ці питання можуть суттєво вплинути на прогнози щодо розвитку можливостей ШІ та стратегії гармонізації систем штучного інтелекту з людськими вподобаннями. Метод, який допоможе розгадати цю головоломку, полягає в реінжинірингу складної архітектури моделі в найдрібніших деталях.

Дослідники запропонували методи впровадження мереж Гопфілда, швидких ваг, розрідженої регресії, градієнтного спуску, автоматів або простих комп’ютерних програм за допомогою трансформерів, хоча ці дослідження часто обмежуються невеликими і спрощеними системами. Щоб по-справжньому зрозуміти складні явища, які захоплюють нас у великих мовних моделях, ймовірно, знадобиться всебічна зворотна інженерія, що охоплює мільярди параметрів.

В якості альтернативи дослідники можуть застосувати підхід, який починається з взаємозв’язків між входом і виходом моделі та поступово переходить до більш глибокого вивчення. Ця стратегія пропонує перевагу безпосереднього вивчення феноменів, використовуючи великі моделі. Однак формулювання чітких висновків на основі модельних зразків і ймовірностей створює проблеми, оскільки широкий спектр процесів навчання може призвести до однакового результату — від простого запам’ятовування до справжнього розв’язання проблем. Щоб подолати ці обмеження, застосовується низхідна методологія, спрямована на кількісну оцінку контрфактичності: як зміниться поведінка моделі, якщо певна послідовність буде частиною навчального набору? Для вирішення цієї проблеми використовуються функції впливу — класичний статистичний інструмент, інтегрований у глибоке навчання. Зокрема, функції впливу намагаються наблизити компактне представлення цього контрфактичного сценарію. Дослідники з Університету Торонто та Vector Institute наразі використовують функції впливу для аналізу великих узагальнень мовних моделей.

Дослідники переконані, що функції впливу є важливим джерелом доказів для розуміння різних видів поведінки високого рівня. Їхній підхід передбачає визначення послідовностей навчання, які мають значний вплив на вихід моделі. Це дозволяє їм розрізняти різні пояснення процесу генерації вихідних даних і дає уявлення про типи структур, які узагальнюються або не узагальнюються на основі навчальних даних. Хоча функції впливу довели свою цінність для невеликих нейронних мереж, їх застосування до великих моделей викликає певні труднощі.

Перешкода масштабованості особливо помітна, коли мова йде про обчислення оберненого векторного добутку Гессена (IHVP). Цей обчислювальний крок передбачає запуск ітераційного розв’язувача лінійної системи на тисячі кроків, кожен з яких за обсягом витрат можна порівняти з обчисленням градієнта. Подолання цього вузького місця стає вирішальним при роботі з великими моделями. Незважаючи на ці виклики, дослідники з різних установ, включаючи Університет Торонто та Vector Institute, старанно працюють над адаптацією та розширенням використання функцій впливу, щоб отримати глибше розуміння поведінки великих мовних моделей.

Одне з найскладніших завдань при обчисленні функцій впливу пов’язане з необхідністю обчислювати градієнти для всіх навчальних прикладів незалежно для кожного запиту на вплив. Досі функції впливу успішно застосовувалися до найбільших моделей, таких як 300-мільйонні трансформери технічного зору. Однак зараз дослідники розширюють межі, поширюючи ці обчислення на величезні моделі мови трансформерів, що містять до 52 мільярдів параметрів. Щоб досягти цього, вони покладаються на передові методи для вирішення проблем, пов’язаних з обчисленням навчального градієнта і обчисленням IHVP, які раніше були визначені як проблемні місця в обчисленнях.

Результати дослідження охоплюють кілька ключових висновків, серед яких:

  • Незважаючи на більш швидку обробку, метод EK-Fisher Auto-Curvature ефективно конкурує з добре відомим методом LiSSA (Layer-wise Systematic Sampling of Activations) з точки зору точності оцінки впливу.
  • Більші моделі постійно демонструють вищий рівень абстракції у своїх узагальненнях порівняно з меншими аналогами. Це очевидно в різних сферах, таких як рольові ігри, програмування, математичні міркування та міжмовне розуміння.
  • Вплив рівномірно розподіляється між різними рівнями мережі, але на різних рівнях виникають чіткі тенденції до узагальнення. Проміжні шари зосереджуються на абстрактних моделях, тоді як верхні та нижні шари демонструють тісніші зв’язки з окремими токенами.
  • Функції впливу несподівано демонструють високу ступінь узагальнення, але несподівано виявляють чутливість до порядку слів. Послідовності навчання більше впливають на поведінку моделі, коли слова, пов’язані з підказкою, передують словам, пов’язаним із завершенням.
  • На рольову поведінку переважно впливають приклади або описи схожої поведінки в навчальній вибірці. Це підкреслює, що імітація, а не складне планування, є рушійним фактором такої поведінки.

Орієнтуючись в складному ландшафті можливостей ШІ, вивчення функцій впливу дає певне розуміння поведінки та роботи цих потужних систем. Зазирнувши в глибини цих моделей, ми отримуємо цінну інформацію, яка може вплинути на майбутнє інтеграції та співпраці у сфері штучного інтелекту. Подорож до розгадки таємниць великих мовних моделей триває, але одне залишається безсумнівним: наше прагнення до знань у цій галузі, призведе до нових проривів, які переосмислять наші стосунки з технологіями.