BTC$29880

ETH$3666

Шукати

Створені за допомогою ChatGPT смарт-контракти можуть бути недосконалими

Інструменти штучного інтелекту, такі як ChatGPT від OpenAI, створять більше проблем, помилок і векторів атак, якщо їх використовувати для написання смарт-контрактів і створення криптовалютних проектів, вважає керівник фірми CertiK, що займається безпекою блокчейну.

Канг Лі, керівник служби безпеки CertiK, пояснив на Korean Blockchain Week 5 вересня, що ChatGPT не може виявляти логічні помилки в коді так само, як це роблять досвідчені розробники.

Лі припустив, що ChatGPT може створювати більше помилок, ніж виявляти їх, що може бути катастрофічним для кодерів-початківців або аматорів, які прагнуть створити власні проекти.

«ChatGPT дозволить групі людей, які ніколи не мали всієї цієї підготовки, зануритися в роботу, вони можуть почати прямо зараз, і я починаю турбуватися про проблеми морфологічного дизайну, поховані в ньому».

«Ви пишете щось, і ChatGPT допомагає вам створити це, але через всі ці недоліки дизайну воно може з тріском провалитися, коли почнуть з’являтися зловмисники», – додав він.

Натомість Лі вважає, що ChatGPT слід використовувати як помічника інженера, оскільки він краще пояснює, що насправді означає той чи інший рядок коду.

«Я думаю, що ChatGPT – це чудовий інструмент для людей, які займаються аналізом коду та реверс-інжиніринг. Це, безумовно, хороший помічник, і він значно підвищить нашу ефективність».

Натовп на Korean Blockchain Week збирається перед виступом доповідача. Джерело: Ендрю Фентон/Cointelegraph

Він підкреслив, що не варто покладатися на ChatGPT для написання коду – особливо недосвідченим програмістам, які хочуть створити щось, що можна монетизувати.

Лі сказав, що він буде підтримувати свої твердження принаймні протягом наступних двох-трьох років, оскільки визнає, що швидкий розвиток штучного інтелекту може значно покращити можливості ChatGPT.

Технології штучного інтелекту стають кращими в питаннях соціальної інженерії

Тим часом Річард Ма, співзасновник і генеральний директор компанії Quantstamp, що займається безпекою Web3, розповів на конференції KBW 4 вересня, що інструменти штучного інтелекту стають все більш успішними в атаках соціальної інженерії, багато з яких ідентичні спробам, які здійснюються людьми.

Ма сказав, що клієнти Quantstamp повідомляють про тривожну кількість все більш витончених спроб соціальної інженерії.

«[З огляду на] останні випадки, схоже, що люди використовують машинне навчання для написання електронних листів і повідомлень. Це набагато переконливіше, ніж спроби соціальної інженерії кілька років тому».

Хоча пересічний користувач інтернету роками страждає від спаму, створеного штучним інтелектом, Ма вважає, що ми наближаємося до моменту, коли не зможемо відрізнити, чи зловмисні повідомлення створені штучним інтелектом, чи людиною.

«Буде все важче відрізнити повідомлення від людини [або] досить переконливого повідомлення ШІ від особистого повідомлення», – сказав він.

Експерти криптоіндустрії вже стають мішенями, в той час як інших видають за себе боти зі штучним інтелектом. Ма вважає, що далі буде тільки гірше.

«У криптоіндустрії існує безліч баз даних з усією контактною інформацією про ключових людей з кожного проекту. Тож хакери мають доступ до них [і] у них є ШІ, який може в принципі намагатися надсилати повідомлення людям різними способами. Досить важко навчити всю компанію не реагувати на такі речі», – додав Ма.

За словами Ма, на ринку з’являється краще антифішингове програмне забезпечення, яке може допомогти компаніям захиститися від потенційних атак.