BTC$29880

ETH$3666

Шукати

Біблія Судного дня зі штучним інтелектом

Створення атомної бомби — це хроніка шляху, який вчені проклали до нової ери з беспрецедентними можливостями для руйнувань, але й з новими можливостями створювати. Дослідники безпеки штучного інтелекту знаходять у цьому шляху багато уроків, актуальних для сучасних викликів, що стоять перед людством.

У грудні 1938 року у науково-дослідному інституті в передмісті Берліна двоє німецьких хіміків, Отто Ган і Фріц Штрассман, самі того не усвідомлюючи, відкрили ядерну еру. Вони не займалися створенням бомби. Натомість вони спрямовували радіацію на уран, щоб виявити отримані речовини — рутинний крок у серії випробувань, що досліджували специфічну фізику радіоактивних металів.

Відкриттям Хана і Страссмана стало ядерне ділення — поділ атомів урану, що вивільняє величезну енергію, ув’язнену в атомному ядрі. Ядерні фізики швидко зрозуміли значення цього експерименту. У січні 1939 року Нільс Бор передав цю новину на конференцію у Вашингтоні, округ Колумбія, шокувавши наукову спільноту. Лише кілька тижнів по тому в радіаційній лабораторії Каліфорнійського університету в Берклі Джей Роберт Оппенгеймер викреслив на своїй дошці перше рудиментарне зображення атомної бомби.

“Це глибока і необхідна істина, що глибокі речі в науці знаходять не тому, що вони корисні. Їх знаходять тому, що їх можна було знайти”, — казав Оппенгеймер через багато років після того, як бомби, в розробці яких він брав участь, були скинуті на Хіросіму і Нагасакі.

Історія створення атомної бомби зачарувала іншу групу вчених, які заглиблюються в загадкові сфери з непередбачуваними наслідками: дослідників штучного інтелекту. Остаточним звітом про цю історію стала книга Річарда Родса “Створення атомної бомби”, яка була опублікована в 1986 році і принесла автору Пулітцерівську премію. Цей 800-сторінковий опус відіграє дещо сакральну роль серед людей, які працюють у сфері штучного інтелекту. Це улюблене читання в Anthropic AI, творців чат-бота Claude, схожого на ChatGPT. Чарлі Уорзел з The Atlantic назвав книгу “формою священного тексту” для певної групи дослідників ШІ, тих, хто усвідомлює, що їхні творіння можуть мати руйнівний потенціал. Прагнення створити всеосяжний ШІ може стати аналогом Манхеттенського проекту 21-го століття — резонансна аналогія, яку не оминув увагою і режисер “Оппенгеймера” Крістофер Нолан.

Для дослідників ШІ ця історія віддзеркалює їхній власний шлях як групи науковців, які усвідомлюють потенційний вплив своєї роботи на розвиток людства — як на користь, так і на шкоду. Гайдн Белфілд, дослідник Кембриджського університету, що спеціалізується на ризиках штучного інтелекту, зазначає, що ця історія має глибоке значення для багатьох у спільноті ШІ. Вона викликає резонанс, оскільки відображає їхній власний досвід і побоювання повторити помилки, яких припустилися вчені минулого. Історія зачіпає за живе, висвітлюючи паралельні виклики та етичні міркування, з якими вони стикаються, формуючи майбутнє.

Помітний контраст між фізиками 1930-х років і сучасними розробниками штучного інтелекту полягає в їхніх мотиваціях. Фізики тієї епохи відчували нагальну потребу, будучи переконаними, що вони змагаються з нацистською Німеччиною. Відкриття поділу ядра німецькими хіміками, які працювали в Третьому Рейху, в поєднанні з їхнім доступом до уранових шахт після анексії частини Чехословаччини, прискорило цю нагальність. Фізик Лео Сілард, автор концепції ланцюгової ядерної реакції, переконав Альберта Ейнштейна підписати листа до президента Рузвельта. Цей лист попереджав, що США повинні приступити до розробки бомби, інакше вони ризикують відстати в гонці з нацистами.

“Для кожного з них головною мотивацією було отримати ядерну бомбу раніше за нацистів”, — говорить Белфілд.

Книга Родса ілюструє, як змінюється мотивація в міру розвитку конфлікту. Спочатку мета бомби, яка мала випередити нацистську Німеччину, трансформувалася. Вона перетворилася на засіб прискорити закінчення Тихоокеанської війни і забезпечити США перевагу на початку холодної війни проти СРСР, що наближалася.

Джозеф Ротблат став одним з небагатьох голосів в рамках Мангеттенського проекту. Він пішов через моральні застереження проти ядерної зброї, навіть якщо вона сприяла перемозі. Ротблат твердо вірив, що ядерна зброя є небезпечною, а її використання увічнить конфлікти і руйнування.

У своїй промові на врученні Нобелівської премії миру 1995 року Ротблат рішуче засудив гонку ядерних озброєнь. Він закликав науковців використовувати свої знання на благо людства, відмовившись від участі у створенні зброї масового знищення. Вічне послання Ротблата підкреслює нашу сьогоднішню реальність, оскільки привид ядерного конфлікту все ще нависає над нами. Вчені несуть етичний обов’язок запобігти цій катастрофі, підтримуючи його заклик до миру, роззброєння і світу, вільного від ядерної зброї.

Сучасні дослідники штучного інтелекту можуть замислитися над тим, чи не опинилися вони в епіцентрі сучасної гонки озброєнь за дедалі потужніші системи штучного інтелекту. Претендентами на перемогу можуть бути Китай і США або група лабораторій, що базуються переважно в США, які розробляють ці системи. Втім, учасники можуть бути не настільки важливими, як сама ідея перегонів. У фільмі “Створення атомної бомби” підкреслюється, що уявні перегони можуть бути такими ж потужними мотиваторами, як і реальні. Якщо лабораторія з розробки штучного інтелекту замовкає, то це намагання просунутись у цій галузі чи натяк на значний прорив? Як і в епоху атомної бомби, поняття конкуренції може стимулювати інновації та прогрес у дослідженнях ШІ.

Після того, як OpenAI представила ChatGPT у листопаді 2022 року, керівництво Google оголосило “червоний код” для своєї стратегії у сфері ШІ, що спонукало різні лабораторії активізувати зусилля для прискорення запуску продуктів. Підвищена увага до досягнень OpenAI, очевидно, викликана відчуттям конкурентної необхідності. Девід Манхейм, керівник відділу політики та досліджень Асоціації довгострокового існування та стійкості в Ізраїлі, зазначає, що увага, яку привернула до себе OpenAI, створила помітну атмосферу конкурентної динаміки в галузі ШІ.

Посилення прозорості серед компаній потенційно може пом’якшити появу такої динаміки. Проводячи паралель, можна згадати, що Манхеттенський проект був засекречений від СРСР. США поінформували свого союзника про революційну зброю лише через тиждень після випробування “Трініті”. Під час Потсдамської конференції 24 липня 1945 року президент Трумен відпустив свого перекладача і конфіденційно поділився новиною з радянським прем’єром Йосипом Сталіним. Однак Сталін відреагував незворушно, висловивши сподівання, що США застосують цю зброю проти Японії. Озираючись назад, майже два десятиліття потому, Оппенгеймер припустив, що цей момент ознаменував втрачену світом можливість запобігти небезпечній гонці ядерних озброєнь після Другої світової війни. Ця історія підкреслює важливість відкритої комунікації для запобігання ненавмисній ескалації.

У липні 2023 року Білий дім отримав від лабораторій штучного інтелекту добровільні зобов’язання щодо обмеженого рівня прозорості. Серед них OpenAI, Google і Meta. Ці зобов’язання передбачають проходження оцінювання як внутрішніми, так і зовнішніми експертами перед випуском систем. Крім того, компанії зобов’язалися ділитися думками щодо управління ризиками штучного інтелекту з урядами, громадянським суспільством та науковими колами, зміцнюючи ідею відповідального розвитку ШІ та співпраці в цій сфері.

Ефективна прозорість вимагає від урядів чіткого формулювання небезпек, від яких вони захищають. Проводячи історичну паралель, перші атомні бомби, хоча Трумен і назвав їх “надзвичайно руйнівною силою”, не запровадили концепцію руйнування цілих міст, що спостерігалося під час війни. У березні 1945 року вночі на Токіо американські бомбардувальники скинули понад 2 000 тонн запалювальних бомб, що призвело до загибелі понад 100 000 мешканців, подібно до кількості загиблих під час бомбардування Хіросіми. На вибір Хіросіми і Нагасакі як перших цілей для атомного бомбардування вплинув їхній статус як двох з небагатьох японських міст, які не були повністю знищені бомбардуваннями. Американські військові лідери вважали, що оцінити руйнівний потенціал нової зброї буде неможливо, якщо вона буде розгорнута на вже зруйнованих містах. Історичний контекст підкреслює важливість з’ясування конкретних ризиків, на які спрямовані зусилля з прозорості.

“Я вважаю, що одним з найбільших ризиків є суперечки про те, що важливіше — короткостроковий чи довгостроковий вплив, коли ми не витрачаємо достатньо часу на роздуми про те, що важливіше”, — консультант з питань майбутнього Кайл Грейсі.

Після війни американські вчені оглянули Хіросіму і Нагасакі і відзначили, що ці міста не надто відрізняються від інших міст, які постраждали від звичайних бомбардувань. Розмірковуючи про це, Річард Родс в подкасті “Місячне суспільство” зауважив, що існує поширена думка, що для ведення війни із застосуванням ядерної зброї — незалежно від засобів стримування — потрібен значний арсенал. Таке уявлення виникло через візуальну схожість між містами, що зазнали ядерного бомбардування, і тими, що зазнали більш традиційних бомбардувань.

Однак пізніше прийшло усвідомлення того, що найпотужніша післявоєнна ядерна зброя термоядерного синтезу була експоненціально потужнішою, ніж зброя поділу, розгорнута над Японією. Різниця в руйнівних можливостях була величезною, що ускладнювало розуміння накопиченого руйнівного потенціалу в епоху холодної війни. Рання ядерна зброя здавалася незначною у порівнянні з нею, що ускладнювало повне розуміння масштабу руйнувань, які несе в собі ядерний арсенал.

У сфері ШІ також виникають виклики на порядок більшого масштабу. Наразі упереджені алгоритми та неадекватно розроблені системи штучного інтелекту становлять безпосередню загрозу джерелам існування та свободам, особливо для маргіналізованих груп. Однак найсерйозніші ризики ШІ чекають на нас попереду, в майбутньому. Питання полягає в тому, яким є справжній масштаб ризиків, до яких ми готуємося, і як ми можемо ефективно протистояти їм?

Невизначеність щодо масштабів цих ризиків вимагає нашої уваги. Щоб зменшити потенційну шкоду, необхідний комплексний підхід. Співпраця між дослідниками ШІ, політиками та суспільством в цілому має вирішальне значення для впровадження запобіжних заходів, етичних принципів та ретельного тестування. Проактивно вирішуючи ці проблеми, ми можемо спрямувати ШІ в майбутнє, яке принесе максимальну користь і мінімізує потенційну шкоду.

“Я вважаю, що одним з найбільших ризиків є суперечки про те, що важливіше — короткостроковий чи довгостроковий вплив, коли ми не витрачаємо достатньо часу на роздуми ні про те, ні про інше”, — каже Кайл Грейсі консультант некомерційної організації Future Matters.

Під час навчання в коледжі Грейсі зіткнувся з фільмом “Створення атомної бомби”, який залишив незабутнє враження. Величезні масштаби та колективні зусилля, які пішли на створення атомної бомби, були вражаючими — не лише науковці, а й сім’ї, робітники та прихильники зробили свій внесок у цю справу. Для Грейсі справжнє змагання ШІ полягає у створенні спільноти безпеки, яка виходить далеко за межі наукових кіл. Він прагне створити згуртовану мережу, яка охоплює різні зацікавлені сторони та експертів, що співпрацюють задля забезпечення етичного розвитку, відповідального впровадження та ефективного зменшення ризиків ШІ.

Це може призвести до подолання розриву між різними людьми, які занепокоєні проблемами ШІ. Короткострокові і довгострокові ризики ШІ не є абсолютно різними сферами. Аналогічно, не випадково більшість жертв атомних бомб були цивільними особами. Концепція повітряних бомбардувань, спрямованих на цивільне населення, не була нововведенням Другої світової війни, але вона набула популярності в міру того, як війна прогресувала. Стратегічні бомбардування, спочатку спрямовані на військові об’єкти в Англії, перетворилися на бліц-атаки, оскільки денні атаки стали для Люфтваффе неприйнятними. У відповідь бомбардувальники союзників розпочали масовані нальоти на німецькі міста, що врешті-решт завершилися всеосяжними бомбардуваннями Японії. З кожним новим нальотом катастрофічні втрати, завдані цивільному населенню, тривожно зростали. Директива Двадцятого повітряного флоту для японських міст уособлювала мету тотального спустошення: “не залишати каменя на камені”.

Подібно до того, як етичні наслідки повітряної війни вплинули на широкий спектр суспільства, багатогранне занепокоєння щодо ШІ так само вимагає колективної співпраці між різними секторами та інтересами. Створення єдиного підходу, який визнає короткострокові і довгострокові наслідки ШІ, може допомогти побудувати більш відповідальний і етично обґрунтований ландшафт ШІ.

Коли з’явилася атомна бомба, її застосування проти цивільних об’єктів здавалося неминучим. Оскільки майже не залишилося військових цілей, які б виправдовували застосування такої потужної зброї, націленість на цивільне населення була очевидним шляхом вперед. Більше того, це відображало триваючу тенденцію, коли кількість жертв серед цивільного населення значно перевищувала кількість жертв серед військовослужбовців, з приголомшливим співвідношенням близько 2:1. Бомба ознаменувала собою технологічний прогрес у засобах знищення, але етичний стрибок до невибіркової війни проти некомбатантів був зроблений роками раніше.

Проводячи паралель зі штучним інтелектом, навіть якщо ми не можемо повністю передбачити можливості майбутніх систем, вкрай важливо прислухатися до нинішніх побоювань щодо ШІ. Було б необачно ігнорувати те, що ШІ може витіснити низькооплачувані робочі місця або підірвати довіру до виборів та інституцій. Враховуючи історичні уроки, ми визнаємо важливість вдумливого підходу та етичного контролю, коли йдеться про вплив нових технологій на суспільство.

Висловлення занепокоєння з приводу цих досягнень не означає ворожості до ШІ; скоріше, воно відображає щире занепокоєння за інших людей. Крістофер Нолан, який проводив паралелі між ШІ та атомною бомбою, підтримав подібну думку і підкреслив, що наділення ШІ всемогутніми якостями означає відмову від людської відповідальності за дії — чи то у військовому, чи то в соціально-економічному, чи то в інших контекстах. Головна небезпека ШІ полягає в тому, що ми наділяємо його богоподібними якостями, тим самим потенційно звільняючи себе від відповідальності.

Відкриття ядерного розщеплення було завжди можливим, але рішення використовувати його на шкоду людям — це, безперечно, людське рішення. Вивчаючи уроки історії, ми визнаємо важливість збереження нашої етичної відповідальності, незважаючи на технологічний прогрес. Подібно до того, як наслідки ядерних технологій безпосередньо залежали від людського вибору, ми повинні залишатися пильними і відповідальними у нашому підході до потенційного впливу ШІ.

Книга Родса має ще одну привабливу особливість для дослідників ШІ: вона розповідає про когорту молодих, технічно підкованих науковців, які розпочинають місію з трансформаційними глобальними наслідками. Так само, як деякі розробники ШІ побоюються, що їхні інновації можуть призвести до глобальної катастрофи, вони також плекають віру в те, що ШІ стане каталізатором творчості, пожвавить економіку та звільнить людей від рутинних завдань. Генеральний директор OpenAI Сем Альтман описав цю подвійність, виступаючи перед групою молодих фахівців у Сеулі, підкресливши потенціал великого золотого віку, що вже настає на горизонті. Проте, на горизонті з’являється протилежна реальність: ті ж самі досягнення ШІ можуть поставити під загрозу всіх нас. Поєднання безмежних перспектив і потенційної небезпеки підкреслює важливість розвитку штучного інтелекту і важливість підходу до нього з виваженою відповідальністю.

Вчені, які створили атомну бомбу, боролися зі схожою подвійністю. Нільс Бор, який передав новину про відкриття розщеплення через Атлантику, роздумував, чи може це відкриття стати кульмінацією ери миру. Фізик виступає в ролі морального компаса, який наскрізною ниткою проходить через розповідь Родса. Він інтуїтивно відчував, що ця революційна технологія несе в собі потенціал для кращого світу, за умови, що політики приймуть прозорість перед небезпечною гонкою озброєнь. У 1944 році Бор звернувся до президента Рузвельта з пропозицією, щоб США звернулися до Радянського Союзу з метою сприяння взаєморозумінню щодо розгортання ядерної зброї. Пізніше того ж року він звернувся з аналогічним проханням до Вінстона Черчилля. Дії Бора перегукуються з прагненням відповідального управління новими технологіями, підкресленим визнанням їхнього потенціалу, що несе в собі як багатообіцяючу, так і небезпечну загрозу.

Пропозиції Бора, однак, не знайшли відгуку у британського прем’єр-міністра. Записка Черчилля після зустрічі з Бором розкриває його побоювання: “Президент і я дуже стурбовані професором Бором. Мені здається, що його слід ув’язнити або, принаймні, дати йому зрозуміти, що він перебуває дуже близько до межі смертних злочинів”. Черчилль був глибоко стурбований ідеєю обміну інформацією про потенціал бомби до того, як її катастрофічна сила була продемонстрована в бою, особливо з неминучим супротивником — СРСР. Нільс Бор більше ніколи не був удостоєний аудієнції ні у президента, ні у прем’єр-міністра. З двох можливих варіантів майбутнього, які передбачав учений, світ пішов тим шляхом, якого він найбільше боявся.