21.03.2024 15:23
Нова архітектура машинного навчання, натхненна мозком, для вдосконалення великих мовних моделей
Штучний інтелект стоїть перед важливим завданням: вдосконалити можливості великих мовних моделей (LLM), забезпечуючи при цьому їхню відповідність сучасним вимогам і точність. Традиційні методи, такі як перенавчання або точне налаштування, є ресурсомісткими і ризикують стерти цінну інформацію через швидке забування. Щоб вирішити цю проблему, команда з IBM AI Research та Прінстонського університету представила Larimar — архітектуру, яка обіцяє зробити значну зміну у вдосконаленні великих мовних моделей.
Larimar, названа на честь рідкісного блакитного мінералу, представляє розподілену епізодичну пам’ять для LLM, що дозволяє динамічно оновлювати знання без виснажливого перенавчання. Цей підхід, натхненний мозком, імітує людські когнітивні процеси, дозволяючи вибірково оновлювати інформацію та забувати її, що має вирішальне значення для підтримання актуальності моделі та зменшення упередженості.
Експериментальні результати демонструють ефективність Larimar, що дозволяє оновлювати дані в 10 разів швидше, ніж існуючі методи, одночасно обробляючи послідовні редагування і довгі контексти введення з винятковою гнучкістю. Архітектура Larimar є значним кроком в обслуговуванні LLM, надаючи можливість створювати моделі, які розвиваються разом з людськими знаннями, зберігаючи свою точність і актуальність з плином часу.
Можемо зробити висновок, що Larimar є ще однією важливою сходинкою в удосконаленні LLM, пропонуючи ефективне вирішення проблем оновлення та редагування знань моделей. Динамічний підхід, натхненний мозком, провіщає наступ наступної ери в галузі ШІ, коли моделі зможуть швидко і точно адаптуватися до мінливого інформаційного ландшафту, забезпечуючи їхню постійну корисність і надійність.