Маніпуляції з агентами LLM за допомогою отруєння пам’яті
Дослідники з Чиказького університету, Університету Іллінойсу в Урбана-Шампейн, Університету Вісконсін-Медісон та Каліфорнійського університету в Берклі представили розробку AgentPoison — нову атаку з використанням обхідних шляхів, націлену на універсальні агенти великих мовних моделей, які базуються на RAG.
23.07.2024 14:35