Microsoft випустила Red Teaming-інструмент для генеративного ШІ
Microsoft представила PyRIT, новий інструмент з відкритим доступом, покликаний допомогти фахівцям з безпеки та інженерам зі штучного інтелекту виявляти ризики в генеративному ШІ.
Microsoft випустила Red Teaming-інструмент для генеративного ШІ
Microsoft представила PyRIT, новий інструмент з відкритим доступом, покликаний допомогти фахівцям з безпеки та інженерам зі штучного інтелекту виявляти ризики в генеративному ШІ.
Google створює червону команду для тестування атак на системи штучного інтелекту
Компанія Google створила червону команду, яка займається системами штучного інтелекту (ШІ), і опублікувала звіт, що містить огляд найпоширеніших типів атак. Компанія оголосила про створення AI Red Team всього через кілька тижнів після того, як представила Secure AI Framework (SAIF), який покликано забезпечити основу безпеки для розробки, використання та захисту систем штучного інтелекту. У новому звіті […]