
Hайбільший попередньо навчений LLM з пошуком перед налаштуванням інструкцій
Команда дослідників з Nvidia та Університету Іллінойсу в Урбане-Шампейне представила захоплюючий прорив у сфері мовних моделей. Представляємо вам Retro 48B — гіганта серед мовних моделей, який може похвалитися 48 мільярдами параметрів, що є значним стрибком у порівнянні з попередніми моделями, доповненими пошуком, такими як Retro (7,5 мільярдів параметрів).