BTC$29880

ETH$3666

Шукати

WormGPT: інструмент на базі ШІ, що дозволяє кіберзлочинцям проводити складні кібератаки

Штучний інтелект (ШІ) стає все більш популярним, тому не дивно, що зловмисники почали використовувати цю технологію для власної вигоди.

За даними SlashNext, новий інструмент кіберзлочинності на основі ШІ, під назвою WormGPT, рекламується на підпільних форумах і дозволяє зловмисникам запускати складні фішингові та компрометаційні атаки на бізнес-електронну пошту (BEC).

“Цей інструмент пропонується як альтернатива GPT-моделям для хакерів, , розроблений спеціально для зловмисних дій”, – сказав дослідник з питань кібербезпеки Даніель Келлі. «Кіберзлочинці можуть використовувати таку технологію для автоматизації створення високопереконливих підроблених електронних листів, які персоналізуються для адресата, тим самим збільшуючи шанси на успіх атаки».

Автор програмного забезпечення описує його як “найбільшого ворога відомого ChatGPT”, який “дозволяє зробити все, що завгодно незаконне”.

У руках зловмисника інструменти, такі як WormGPT, можуть бути потужною зброєю, особливо враховуючи те, що OpenAI ChatGPT і Google Bard все частіше вживають заходів для боротьби з використуванням великих мовних моделей (LLM) для створення переконливих фішинг-листів та генерування шкідливого коду.

“Обмеження проти зловживання Bard в галузі кібербезпеки значно нижчі порівняно з обмеженнями ChatGPT”, – зазначила компанія Check Point у звіті на цьому тижні. “Внаслідок цього набагато простіше генерувати шкідливий контент за допомогою можливостей Bard”.

Раніше у лютому ізраїльська кібербезпекова компанія розкрила, як кіберзлочинці обходять обмеження ChatGPT, використовуючи його API, а також торгують украденими преміальними обліковими записами та продають програмне забезпечення для брутфорсу, щоб взламати облікові записи ChatGPT, використовуючи великі списки електронних адрес та паролів.

Той факт, що WormGPT працює без етичних обмежень, підкреслює загрозу, яку становить генеративний ШІ, дозволяючи навіть новачкам-кіберзлочинцям швидко та масштабно здійснювати атаки, не маючи технічних навичок для цього.

Ще гірше те, що загрозливі актори просувають «джейлбрейк» ChatGPT, генеруючи спеціалізовані запити і введення, які призначені для маніпулювання інструментом з метою генерації виведень, що можуть розкривати конфіденційну інформацію, створювати неприпустимий контент і виконувати шкідливий код.

«Генеративний ШІ може створювати електронні листи з бездоганною граматикою, що змушує їх виглядати легітимними і знижує ймовірність того, що вони будуть відзначені як підозрілі», – сказав Келлі.

«Використання генеративного ШІ демократизує виконання складних BEC-атак. Навіть з обмеженими навичками зловмисники можуть використовувати цю технологію, що робить її доступним інструментом для більш широкого спектру кіберзлочинців».

Ця інформація стала відома після того, як дослідники з Mithril Security «хірургічним» шляхом модифікували існуючу відкриту модель ШІ, відому як GPT-J-6B, щоб вона поширювала дезінформацію, і завантажили її в загальнодоступний репозиторій, такий як Hugging Face, який потім міг бути інтегрований в інші додатки, що призвело до так званого отруєння ланцюжка постачань LLM.

Успіх техніки, яку називають PoisonGPT, залежить від передумови, що лоботомізовану модель завантажують під ім’ям, яке імітує відому компанію, у цьому випадку, фальшиву версію EleutherAI, компанії, що стоїть за GPT-J.