BTC$29880

ETH$3666

Шукати

Fetch.ai та SingularityNET об’єднуються, щоб боротися з галюцинаціями штучного інтелекту

Розробники Fetch.ai та SingularityNET оголосили про нове партнерство, спрямоване на боротьбу з галюцинаціями штучного інтелекту (ШІ).

Галюцинації ШІ — це тенденція великих мовних моделей (LLM) видавати неточні або нерелевантні результати. Ці галюцинації можуть бути серйозною проблемою для надійності та впровадження ШІ.

Децентралізовані платформи, такі як SingularityNET і Fetch, дозволяють розробникам збирати багатокомпонентні системи ШІ, які працюють на різних машинах, без будь-якого центрального координатора. Це дає гнучкість, яка може бути корисною для боротьби з галюцинаціями ШІ.

Угода Fetch.ai та SingularityNET включає плани щодо запуску у 2024 році серії продуктів, які будуть використовувати децентралізовану технологію для розробки більш просунутих і точних моделей ШІ.

Одним із ключових методів боротьби з галюцинаціями ШІ є нейронно-символічна інтеграція. Цей метод поєднує нейронні мережі, які навчаються на основі даних, із символічним ШІ, який використовує чіткі правила для міркувань.

Хумаюн Шейх, засновник і генеральний директор Fetch.ai, вважає, що галюцинації ШІ можуть бути як проблемою, так і можливістю. Він каже, що галюцинації можуть бути творчими та інноваційними, але вони також можуть бути небезпечними, якщо їх використовувати для поширення дезінформації або пропаганди.

Дослідники зі Стенфордського університету вважають, що галюцинації ШІ ускладнює відсутність прозорості в розробці моделей ШІ. Компанії, які розробляють генеративний ШІ, часто не розкривають, як працюють їхні моделі. Це ускладнює розуміння та боротьбу з галюцинаціями ШІ.

Партнерство Fetch.ai та SingularityNET може допомогти подолати ці проблеми. Децентралізована платформа SingularityNET може забезпечити прозорість, необхідну для розуміння і боротьби з галюцинаціями ШІ.

Нагадаємо, команда вчених з Китайського науково-технічного університету та лабораторії YouTu Lab компанії Tencent розробила інструмент, який може допомогти моделям штучного інтелекту (ШІ) уникати генерування неправдивої інформації, відомої як «галюцинації».