BTC$29880

ETH$3666

Шукати

SambaNova анонсувала Samba-CoE v0.2, яка перевершує конкурентів

Компанія SambaNova Systems, виробник ШІ-чіпів, представила нову велику мовну модель (LLM) Samba-CoE v0.2.

Ця модель, що працює з неймовірною швидкістю 330 токенів на секунду, обганяє такі відомі LLM, як DBRX від Databricks, Mixtral-8×7B від MistralAI та інші.

Samba-CoE v0.2 досягає такої швидкості без шкоди для точності, використовуючи лише 8 сокетів, на відміну від 576, які потрібні альтернативним моделям.

Тести показали, що LLM видавала блискавичні відповіді на різні питання, генеруючи 330,42 токена за секунду для 425-слівного запиту про Чумацький Шлях.

SambaNova робить акцент на економії ресурсів, підкреслюючи значний прогрес в ефективності обчислень та продуктивності моделі.

Компанія також анонсує майбутній випуск Samba-CoE v0.3 у партнерстві з LeptonAI, що свідчить про постійний розвиток та інновації.

Важливо зазначити, що Samba-CoE v0.2 базується на моделях з відкритим вихідним кодом Samba-1 і Sambaverse, які використовують унікальний метод об’єднання та злиття моделей.

Ця методологія забезпечує масштабованість та інноваційний підхід до майбутніх розробок.

Samba-CoE v0.2 має значну конкурентну перевагу порівняно з іншими моделями, такими як Gemma-7B від GoogleAI, Mixtral-8×7B від MistralAI, llama2-70B від Meta, Qwen-72B від Alibaba Group, Falcon-180B від TIIuae та BLOOM-176B від BigScience.