15.12.2023 10:04
Папа Римський закликає до міжнародного регулювання штучного інтелекту
Папа Римський Франциск попередив про потенційну небезпеку штучного інтелекту для людства і закликав до міжнародного договору, який би регулював його розробку та використання.
У своєму листі від 8 грудня Папа Римський Франциск сказав, що ШІ має потенціал принести багато користі, але його також можна використовувати для шкоди. Він висловив занепокоєння з приводу того, що ШІ може використовуватися для створення зброї, поширення дезінформації та посилення нерівності.
«Штучний інтелект — це азартна гра з найвищими ставками в нашому майбутньому», — написав Папа Римський Франциск. «Ми повинні діяти зараз, щоб переконатися, що він використовується на благо, а не для шкоди».
Папа Римський закликає регулювання ШІ
Франциск закликав до створення міжнародного договору, який би гарантував, що ШІ розробляється та використовується відповідно до етичних принципів. Цей договір повинен включати такі положення:
- ШІ повинен використовуватися на благо людства, а не для шкоди.
- Розробка та використання ШІ повинні бути прозорими та підзвітними.
- ШІ не повинен використовуватися для створення зброї або інших засобів насильства.
- ШІ не повинен використовуватися для поширення дезінформації або пропаганди.
- ШІ не повинен використовуватися для посилення нерівності.
Папа Римський також закликав до розробки нових освітніх програм, які навчатимуть людей про потенційні ризики та переваги ШІ. Він сказав, що важливо, щоб всі люди розуміли, як ШІ працює і як його можна використовувати.
Висловлювання Франциска є частиною зростаючого руху за міжнародне регулювання ШІ. Уряди, технологічні компанії та дослідники все більше стурбовані потенційними ризиками ШІ та хочуть вжити заходів для їх пом’якшення.
Інші лідери також висловили занепокоєння щодо ШІ
Папа Франциск не єдиний, хто висловив занепокоєння щодо потенційних ризиків ШІ. Інші лідери, включаючи президента США Джо Байдена, канадського режисера Джеймса Кемерона та понад 2600 технологічних лідерів і дослідників, також висловили занепокоєння.
Байден видав указ про «безпечну, надійну та надійну розробку та використання штучного інтелекту» в жовтні 2023 року. Цей указ спрямований на протидію ризикам, пов’язаним зі штучним інтелектом, включаючи поширення дезінформації, кібербезпеку та дискримінацію.
Кемерон сказав, що попереджав про небезпеку ШІ ще у фільмі «Термінатор», який він зняв майже 40 років тому. Він вважає, що озброєння ШІ є найбільшою небезпекою, пов’язаною зі штучним інтелектом.
«Я думаю, що ми потрапимо в еквівалент перегонів ядерних озброєнь зі штучним інтелектом», — сказав Кемерон. «Якщо ми не створимо його, то інші хлопці напевно створять його, і тоді це призведе до ескалації».