07.02.2024 17:35
Відкритий інструментарій IBM робить штучний інтелект більш безпечним
IBM прагне підвищити безпеку штучного інтелекту, випустивши Adversarial Robustness Toolbox (ART) як проект з відкритим вихідним кодом на платформі Hugging Face. ART, вперше запущений у 2018 році і переданий Фонду Linux у 2020 році, був розроблений IBM в рамках проекту DARPA «Гарантування стійкості штучного інтелекту до обману» (GARD).
Зі зростанням впровадження штучного інтелекту зростає і загроза його атак, зокрема отруєння навчальних даних та загрози ухилення від навчання. Роблячи ART доступним на Hugging Face, IBM сподівається надати захисні інструменти безпеки щодо штучного інтелекту ширшій аудиторії розробників. Ця інтеграція дозволяє користувачам моделей Hugging Face легше захищати свої ШІ-моделі за допомогою прикладів загроз ухиляння та отруєння, а також інтегрувати засоби захисту у свої робочі процеси.
«Hugging Face містить досить великий набір популярних сучасних моделей. Ця інтеграція дозволяє спільноті використовувати інструменти червоно-синьої команди*, які є частиною моделей ART for Hugging Face». — розповіла Наталія Баракальдо Анхель, менеджер з питань безпеки та конфіденційності ШІ в IBM.
*Червона і синя команди — це, по суті, дві сторони (червона команда атакує, а синя захищається) однієї монети кібербезпеки, які використовуються в так званому тестуванні на проникнення або пентестінгу. Це імітація кібератак для виявлення вразливостей у захисних системах організації.
Стійкість до загроз має важливе значення для підвищення безпеки ШІ, оскільки зловмисники можуть спробувати використати вразливості в процесах машинного навчання. ART вирішує цю проблему, надаючи набір інструментів для захисту від ворожих атак. З моменту свого створення ART еволюціонував і включає в себе низку моделей атак і захисту для різних способів, включаючи підтримку виявлення об’єктів, відстеження об’єктів, аудіо та різних типів моделей. IBM продовжує оновлювати ART, щоб протистояти новим загрозам у сфері застосування штучного інтелекту, наприклад, додаючи підтримку мультимодальних моделей, таких як CLIP.
Використовуючи ART, організації можуть краще захистити свої системи ШІ від ворожих атак, сприяючи підвищенню загальної безпеки та надійності технології штучного інтелекту.