Meta AI представила CyberSecEval 2
Великі мовні моделі стають все більш розповсюдженими, але їхнє широке використання призводить до нових викликів кібербезпеці.
Meta AI представила CyberSecEval 2
Великі мовні моделі стають все більш розповсюдженими, але їхнє широке використання призводить до нових викликів кібербезпеці.
Заступник директора з інформаційної безпеки Microsoft виступає на боці ШІ
Келлі Бісселл з Microsoft підкреслює, що організаціям необхідно терміново впроваджувати штучний інтелект, особливо у сфері кібербезпеки, щоб отримати перевагу над кіберзлочинцями.
IBM купує HashiCorp за $6,4 мільярда, щоб розширити можливості хмарних та гібридних середовищ
IBM оголосила про придбання HashiCorp, компанії-розробника програмного забезпечення для управління життєвим циклом інфраструктури та безпеки, за $6,4 мільярда.
Bitrace навчає поліцію Гонконгу боротися з криптозлочинністю
Bitrace, компанія з аналізу даних блокчейну, провела тренінги для співробітників Бюро з питань кібербезпеки та технологічних злочинів (CSTCB) та Бюро з питань комерційних злочинів (CCB) поліції Гонконгу.
Криптофішингові атаки стрімко зростають, співзасновник CertiK закликає до «проактивної підготовки»
Ронгхуі Гу, співзасновник CertiK, компанії з кібербезпеки блокчейну, висловив занепокоєння щодо зростання кіберзлочинності, пов’язаної з криптовалютами. Він закликав криптоспільноту «проактивно готуватися» до нових атак.
Google Cloud та CSA сприяють впровадженню штучного інтелекту в кібербезпеці
Нещодавній звіт про стан штучного інтелекту та безпеки, підготовлений Cloud Security Alliance (CSA) та Google Cloud, свідчить про помітну тенденцію до впровадження штучного інтелекту у сфері кібербезпеки.
Anthropic дослідив багатоспробний джейлбрейк
Нещодавні викриття про техніку джейлбрейку з багатьма спробами пролили світло на критичний аспект великих мовних моделей, який створює потенційні ризики у сфері ШІ. Дослідження Anthropic щодо цього методу злому та його наслідків є одночасно інформативними та тривожними.
Кількість зломів внутрішніх чат-ботів зі ШІ за допомогою ASCII-арту зростає
Зростання внутрішніх загроз, спрямованих на чат-ботів зі штучним інтелектом, виявило вразливі місця в існуючих заходах безпеки. Одне з останніх відкриттів, ArtPrompt, показує, як зловмисники можуть використовувати обмеження великих мовних моделей (LLM), використовуючи ASCII-арт задля обходу заходів безпеки.
Працівники DeepMind викрили таємниці OpenAI
Швидкий розвиток великих мовних моделей, таких як ChatGPT від OpenAI та PaLM-2 від Google, викликав значний інтерес і занепокоєння щодо недостатньої прозорості їхніх внутрішніх механізмів. У цьому контексті співробітники DeepMind представили першу атаку з викрадення моделі, здатну витягувати точну та важливу інформацію з непрозорих великих мовних моделей.
Ідентифікація ризиків для генеративного ШІ на Python
PyRIT, інструмент ідентифікації ризиків для генеративного ШІ на мові Python, є сучасним рішенням для подолання нагальної проблеми, пов'язаної з ризиками безпеки, що виникають у зв'язку з великими мовними моделями (LLM).
Дослідники безпеки створили ШІ-черв’яка
Щоб продемонструвати потенційні ризики, характерні для пов'язаних і автономних екосистем штучного інтелекту, група дослідників розробила одного з перших генеративних ШІ-черв'яків, який отримав назву Morris II.
Hummingbird запускає продукт для автоматизації розслідувань фінансових злочинів за допомогою ШІ
Розвиток технологій генеративного штучного інтелекту відкрив широкі можливості для створення контенту, але водночас відкрив двері для нових форм шахрайства та фінансових злочинів.