01.04.2024 11:08
SambaNova анонсувала Samba-CoE v0.2, яка перевершує конкурентів
Компанія SambaNova Systems, виробник ШІ-чіпів, представила нову велику мовну модель (LLM) Samba-CoE v0.2.
Ця модель, що працює з неймовірною швидкістю 330 токенів на секунду, обганяє такі відомі LLM, як DBRX від Databricks, Mixtral-8×7B від MistralAI та інші.
Samba-CoE v0.2 досягає такої швидкості без шкоди для точності, використовуючи лише 8 сокетів, на відміну від 576, які потрібні альтернативним моделям.
Тести показали, що LLM видавала блискавичні відповіді на різні питання, генеруючи 330,42 токена за секунду для 425-слівного запиту про Чумацький Шлях.
SambaNova робить акцент на економії ресурсів, підкреслюючи значний прогрес в ефективності обчислень та продуктивності моделі.
Компанія також анонсує майбутній випуск Samba-CoE v0.3 у партнерстві з LeptonAI, що свідчить про постійний розвиток та інновації.
Важливо зазначити, що Samba-CoE v0.2 базується на моделях з відкритим вихідним кодом Samba-1 і Sambaverse, які використовують унікальний метод об’єднання та злиття моделей.
Ця методологія забезпечує масштабованість та інноваційний підхід до майбутніх розробок.
Samba-CoE v0.2 має значну конкурентну перевагу порівняно з іншими моделями, такими як Gemma-7B від GoogleAI, Mixtral-8×7B від MistralAI, llama2-70B від Meta, Qwen-72B від Alibaba Group, Falcon-180B від TIIuae та BLOOM-176B від BigScience.