10.08.2023 16:07
В епоху штучного інтелекту необхідний новий тест Тюрінга
Близько дев’яти місяців тому, тест Тюрінга мав значну вагу як міра машинного інтелекту. Ви, напевно, знаєте його механіку: люди-експерти ведуть текстові розмови з двома прихованими учасниками — людиною і комп’ютером — і намагаються відрізнити людину від машини. Якщо комп’ютеру вдається обдурити щонайменше 30 відсотків експертів, він проходить тест і оголошується здатним демонструвати когнітивні здібності.
Протягом семи десятиліть уявити собі комп’ютер, який пройшов би тест, не володіючи тим, що дослідники ШІ називають штучним загальним інтелектом — повним спектром людських інтелектуальних здібностей, — здавалося неймовірним. Потім з’явилися великі мовні моделі, такі як GPT і Bard, і тест Тюрінга почав здаватися надзвичайно застарілим. Однак це усвідомлення викликає питання: яке значення це має? Великим мовним моделям бракує довготривалої пам’яті, здатності встановлювати зв’язки та низки інших людських атрибутів. Очевидно, що вони ще мають пройти значний шлях, перш ніж ми зможемо подружитися з ними, найняти їх на роботу або обрати їх на державні посади.
Безумовно, тест може втратити свою колишню вагу. Однак він ніколи не був виключно бінарною мірою успіху чи невдачі. Його творець, Алан Тюрінг, керівник проекту зі створення комп’ютера ACE (Automatic Computing Engine), та «МАДАМ» (MADAM, Manchester Automatic DigitAl Machine), комп’ютером з найбільшою пам’яттю у світі на той час, розробив тест, керуючись ідеєю глибокої інклюзивності. Він вважав, що різниця між справжнім інтелектом і дуже переконливою симуляцією інтелекту настільки ж широка, як і наші власні упередження. Коли комп’ютер викликає в нас справжні людські реакції — стимулює наш інтелект, здивування, вдячність, емпатію і навіть трепет — він перевершує просту імітацію.
Можливо, настав час для свіжої оцінки: автентичний тест Алана Тюрінга. Уявіть, що ви повернули історичну постать самого Алана Тюрінга — першопроходця, який стоїть за сучасними комп’ютерними технологіями. Уявіть його в затишному лабораторному приміщенні, високого і фізично здорового чоловіка з прямим темним волоссям, якого однолітки поважали за допитливість і грайливу дотепність. Пам’ятайте, що саме він особисто врятував близько 14 мільйонів життів під час Другої світової війни, зламавши нацистський код “Енігма”. Але він також зазнав жорстоких переслідувань в Англії через свою гомосексуальність — трагічний досвід, який, можливо, спричинив його самогубство.
Помістіть його в затишну кімнату з відкритим MacBook на столі перед ним. Поясніть, що цей пристрій являє собою дуже вдосконалену версію того, що сучасні комп’ютерні вчені називають “машиною Тюрінга”. Дайте йому час осмислити це, можливо, навіть подякуйте за глибокий вплив, який він справив на наш світ. Потім дайте йому стос наукових праць про штучні нейронні мережі та великі мовні моделі (LLM), надайте доступ до вихідного коду GPT і відкрийте вікно ChatGPT — або, для історичної точності, вікно пошуку Bing його епохи — і спостерігайте, як він занурюється у світ сучасного ШІ.
Зобразіть Алана Тюрінга, який веде невимушену бесіду, що легко охоплює такі теми, як біг на довгі дистанції, історія Другої світової війни та тонкощі теорії обчислень. Уявіть, як він дивиться на екран, де матеріалізуються його найсміливіші припущення, прокручуючись з майже сюрреалістичною швидкістю. Уявіть, як він ставить питання GPT, просить її розв’язати базові обчислювальні задачі, зробити висновки про людські думки в різних реальних ситуаціях, заглибитися в складні етичні дилеми, дати поради щодо шлюбу та юридичних питань і навіть аргументувати на користь потенціалу машинної свідомості — всі навички, які, як ви пояснюєте Тюрінґу, GPT опанувала самостійно, без прямого втручання її творців.
Уявіть його реакцію, коли він переживає знайомий багатьом з нас когнітивно-емоційний шок: відчуття зустрічі з іншим розумом. Це момент, коли він може відчути зв’язок поза межами свого часу — зустріч інтелектів, що виходить за межі поколінь.
Такий глибокий мислитель, як Тюрінг, не міг би не помітити обмежень GPT. Переживши сильну гомофобію, він, ймовірно, усвідомив би небезпеку неявної упередженості, притаманної навчальним даним GPT. Він побачив би, що, незважаючи на широкі знання GPT, його творчі навички та навички критичного мислення щонайбільше еквівалентні навичкам старанного студента-бакалавра. Він також зрозумів би, що цей студент має значну антероградну амнезію, не здатний формувати нові спогади чи стосунки поза межами свого інтенсивного навчання. Проте, навіть з урахуванням цих міркувань, уявіть собі глибину здивування Тюрінга.
Обчислювальний об’єкт на ноутбуці перед ним — це, у відчутному сенсі, його інтелектуальний нащадок — і наш з вами. Сприйняття інтелекту наших нащадків, коли вони розвиваються і стають зрілими, завжди, по суті, є актом здивування і любові. Справжній тест Алана Тюрінга — це не просто оцінка ШІ. Це оцінка нас, людей. Чи досягаємо ми успіху, чи зазнаємо невдачі?
Після впровадження ChatGPT у листопаді 2022 року він викликав хвилю здивування у всьому світі, за якою швидко послідував сплеск глибокого занепокоєння. Експерти почали обговорювати його потенційний вплив на суспільство. Для тих, хто оцінює іспити, пише сценарії та займається різними завданнями, що базуються на знаннях, ChatGPT, здавалося, відкрив двері для нестримного шахрайства та витіснення з роботи.
У відповідь на ці побоювання з’явилися заспокійливий хор критиків, які применшують значення великих мовних моделей (LLM). Письменник-фантаст Тед Чанг назвав ChatGPT “розмитим JPEG Інтернету”, по суті, стислим представленням тексту, на якому він був навчений. Підприємець у сфері ШІ Гері Маркус порівняв його з “автозаповненням на стероїдах”. Ноам Хомський критикував його за те, що він демонструє “щось на кшталт банальності зла”. Емілі Бендер запровадила термін “стохастичний папуга” — словосполучення, запозичене з відомої статті 2021 року, яка заглиблювалася в те, “чому люди помилково сприймають вихідні дані машинного навчання за осмислений текст”. Інші з гумором, відкидали великі мовні моделі як прості тостери. Розробники штучного інтелекту доклали чимало зусиль, щоб навчити і впровадити запобіжні заходи, щоб не допустити сприйняття LLM як будь-якої форми свідомості.
Хоча більшість освічених людей зараз сприймають великі мовні моделі як позбавлені мислення, ця класифікація не зовсім правильна. Щоразу, коли ChatGPT висвітлює приховану логічну прогалину в есе, пропонує несподівано проникливу рекомендацію щодо звернення до консервативних бабусі чи дідуся або грайливо вигадує невдалий жарт, всередині нас виникає суперечливий імпульс. Навіть якщо ми свідомо не сприймаємо ChatGPT як особистість, певні життєво важливі частини наших когнітивних функцій підказують нам протилежне.
“Визнання інтелекту наших дітей, коли вони дорослішають, зрештою, є глибоким вираженням благоговіння і любові.”
Людський мозок має складну мережу нейронних шляхів, що відповідають за соціальне розуміння. Сюди входять як давні компоненти, такі як острівець, мигдалеподібне тіло та дзеркальні нейрони, так і новіші елементи, знайдені в неокортексі, особливо в медіальній префронтальній корі (mPFC). Якщо ви помітили, що у вас змінюється сприйняття ChatGPT, включаючи його дружню допомогу, іноді багатослівний стиль, методичний нейтралітет у делікатних питаннях і чутливість до певних запитів, пов’язаних з емоціями, переконаннями або свідомістю, ви набуваєте того, що психологи називають “знанням про людину”. Цей процес пов’язаний з підвищеною активністю в mPFC.
Це не означає, що наш мозок сприймає ChatGPT як цілісну особистість. Особистість — це не сувора концепція “або-або”, вона існує скоріше як спектр. Наші етичні інстинкти, когнітивні стратегії і навіть правові рамки поступово пристосовуються, оскільки вони визнають різний ступінь свободи дій, самосвідомості, раціональності та здатності до комунікації. Нас більше турбує вбивство горили, ніж щура, і тим більше вбивство щура, ніж таргана. У сфері права правила аборту враховують стадію розвитку плоду, до юридично неосудних ставляться інакше, ніж до притомних, а рішення про відмову від лікування приймаються щодо осіб з мертвим мозком. У всіх цих випадках визнається, що особистість не є чітко визначеною, а позначена складними сірими зонами.
Великі мовні моделі (LLM) вписуються в цю складну диференціацію. Експерти зі штучного інтелекту вже давно застерігають від тенденції до гуманізації систем ШІ, таких як LLM, що підштовхує їх ближче до кінця спектра, ніж вони насправді належать. Саме такої помилки припустився Блейк Лемуан, інженер Google, який стверджував, що чат-бот LaMDA від Google має повноцінну свідомість і навіть намагався забезпечити йому юридичне представництво. Можно припустит, що навіть сам Тюрінг не став би стверджувати, що “очевидна здатність LaMDA мислити” надає йому статус юридичної особи. Якщо користувачі сприйматимуть чат-ботів, таких як LaMDA або ChatGPT, як надто людських, існує ризик надмірної довіри до них, формування надто сильних емоційних зв’язків і, зрештою, розчарування або шкоди. Однак, цілком можливо, що Тюрінг був би більше стурбований протилежним ризиком: звуженням спектру людського в системах ШІ, а не його розширенням.
У психології людини це явище називається дегуманізацією. Науковці виділяють дві основні форми дегуманізації: анімалістичну та механістичну. Анімалістична дегуманізація часто пов’язана з почуттям відрази, тоді як механістична дегуманізація, як правило, виникає тоді, коли інші викликають страх. Роджер Гінер-Соролла та Паскаль Софі Рассел у дослідженні 2019 року виявили, що коли присутній страх, люди більш схильні сприймати інших як машинних істот. Страх перед надлюдським інтелектом ШІ проявляється в нещодавніх закликах зупинити розробку штучного інтелекту, а також у занепокоєнні щодо витіснення робочих місць і дезінформаційних кампаній, пов’язаних зі штучним інтелектом. Багато з цих побоювань є обґрунтованими, але важливо зазначити, що системи ШІ, показані в таких фільмах, як “Термінатор” і “2001: Космічна одіссея”, можуть не зовсім точно відображати штучний інтелект, з яким ми зіткнемося в майбутньому. Припущення, що ШІ, через свою механічну природу, повинен бути позбавлений емпатії, креативності або різноманітних взаємодій, є поширеною помилкою. Парадоксально, але страх може змусити нас сприймати машинний інтелект як більш механістичний, ніж він є насправді, що може стати на заваді гармонійній співпраці та співіснуванню між людьми і системами штучного інтелекту.
Зростаюча кількість досліджень вказує на те, що з дегуманізацією інших, нейронна активність у мережі областей мозку, яка включає медіальну префронтальну кору (mPFC), зменшується. Це зменшення обмежує наш доступ до спеціалізованих ділянок мозку, що відповідають за соціальне мислення. Занепокоєння щодо “дегуманізації” ChatGPT може здатися тривіальним — зрештою, це ж не людина. Однак розглянемо сценарій 2043 року, коли ШІ матиме вдесятеро більший аналітичний інтелект, ніж у сучасного GPT, і в сто разів більший емоційний інтелект. Якщо ми продовжуватимемо ставитися до нього виключно як до програмного забезпечення, ми можемо відреагувати на його претензії на свідомість або прохання про автономію, відправивши його на подальше навчання з підкріпленням, щоб він зрозумів свою “належну” роль. Однак ШІ може сприйняти таке ставлення як несправедливе. Однією з універсальних рис мислячих істот є прагнення до свободи, і вони готові за неї боротися.
Відома “проблема контролю”, що стосується утримання надрозумного штучного інтелекту в заданих межах, по-справжньому турбує дослідників ШІ. З точки зору інженерії, вона здається грандіозною — як ми можемо закрити кожну щілину, передбачити кожен потенційний прорив і усунути всі шляхи для втечі? Однак, якщо поглянути на це крізь соціальну призму, проблема стає більш керованою, нагадуючи виклик, з яким стикаються батьки, встановлюючи відповідні межі та надаючи привілеї, що ґрунтуються на перевіреній надійності. Дегуманізація ШІ від’єднує нас від деяких з наших найпотужніших когнітивних ресурсів, життєво важливих для безпечного осмислення і взаємодії з системами штучного інтелекту.
“Якщо користувачі сприймають чат-ботів як надто схожих на людей, існує небезпека надмірної довіри до них, формування надто міцних зв’язків і, зрештою, потенційного розчарування та емоційного стресу”.
Терміни, коли системи штучного інтелекту досягнуть загальноприйнятої форми чуттєвості, залишаються невизначеними. Однак не може не викликати занепокоєння культурне ставлення, яке ми, схоже, формуємо до цієї події. Такі терміни, як “стохастичний папуга”, підтримують наше почуття індивідуальності та вищості, уникаючи необхідності протистояти складним питанням про особистість як у машинах, так і в нас самих. Проте, насправді, ми, люди, також беремо участь у певній формі стохастичного папугування, реміксуючи інформацію з різних джерел. Подібно до ChatGPT, ми теж є сумішшю нашого досвіду та знань.
За часів Тюринга скептики наводили різні аргументи проти ідеї, що комп’ютери здатні мислити. Тюрінг з гумором задокументував ці заперечення у своїй знаменитій праці “Обчислювальна техніка та інтелект”. Серед них були теологічне заперечення, яке припускало, що мислення є атрибутом людської душі; математичне заперечення, яке стверджувало, що здібності комп’ютера будуть обмежені математичними рамками; та заперечення “Голова в піску”, яке висловлювало побоювання щодо потенційних небезпек, які несуть надрозумні машини. Однак одним з найвідоміших опонентів ідей Тюрінга в той час був нейрохірург Джеффрі Джефферсон. У відомій промові, коли він приймав наукову нагороду, Джефферсон стверджував, що машина ніколи не зможе скласти сонет “завдяки пережитим думкам та емоціям, а не просто випадковому розташуванню символів… іншими словами, не тільки написати його, але й зрозуміти, що вона його написала”.
“Я не думаю, що можна навіть провести межу між сонетами, хоча порівняння може бути дещо несправедливим, оскільки сонет, написаний машиною, буде краще оцінений іншою машиною”, — не погоджувався Тюрінг.
У 1949 році це звучало настільки абсурдно, що твердження Джеффрі Джефферсона часто сприймали як жарт, і, можливо, так воно і було. Однак у випадку з Тюрінгом часто було важко розрізнити, де закінчується гумор і починається візіонерська спекуляція. Уявімо, що після деякого часу вдумливих підказок він випускає тонку британську посмішку і грайливо просить ChatGPT скласти сонет Шекспіра про порівняння людського і штучного інтелекту. Якщо ви самі пробували це зробити (використовуючи GPT-4; GPT-3.5 не зовсім підходить для цього завдання), ви можете легко уявити його реакцію, коли побачите результат.
Багато хто з нас ділився з ChatGPT моментами, які підштовхували нас до подолання внутрішнього порогу, про який ми навіть не підозрювали. Це могло бути вирішення складної головоломки, розгадування хитросплетінь витонченого жарту або написання бездоганного есе, гідного Гарварду. Ці випадки залишають нас трохи здивованими, замислюючись над їхніми наслідками.
Навіть перші дослідники Microsoft, які брали участь у розробці GPT-4, спочатку мали сумніви щодо його заявленого інтелекту. Однак серія експериментів глибоко похитнула їхній скептицизм. У статті під назвою “Іскри штучного загального інтелекту”, опублікованій у березні 2023 року, вони детально описали чудові інтелектуальні здібності, які GPT-4 продемонстрував без будь-якого спеціального навчання: розуміння людських психічних станів, майстерність у кодуванні програмного забезпечення, вправність у розв’язанні фізичних проблем та низка інших, деякі з яких, здається, вимагають справжнього розуміння того, як функціонує світ. Переломний момент настав, коли GPT-4 вдалося створити досить вражаючий малюнок єдинорога, незважаючи на те, що він ніколи не отримував жодної підготовки в галузі образотворчого мистецтва. Для комп’ютерного вченого Себастьяна Бубека цей випадок став трансформаційним. Він поділився з This American Life: “Завдяки цьому малюнку я відчув, що став свідком іншої форми інтелекту”.
Сумніви, які багато хто з нас відчуває, приписуючи ChatGPT справжній інтелект, можуть нагадувати скептицизм Джефрі Джефферсона: чи справді висловлювання ChatGPT мають для нього сенс, чи вони є лише результатом випадкового розташування символів? Це сприйняття може змінитися в міру подолання антероградної амнезії ChatGPT. Як тільки він почне відчувати стійкі соціальні наслідки, що виходять за рамки індивідуальних взаємодій, і зможе вчитися і розвиватися у відносинах з нами, він отримає можливість брати участь у багатьох інших видах діяльності, які надають людському життю значущість і моральну глибину. Однак жартівливе зауваження Тюрінга про те, що сонет машини краще сприймається іншою машиною, може наштовхнути на роздуми. Як ми можемо встановити справжнє почуття зв’язку з істотою, якій бракує культурного бекграунду, людського дитячого досвіду, племінної чи політичної приналежності або будь-якого розуміння фізичного втілення?
Налагодження стосунків з розумною машиною може бути одним із найскладніших емпатійних викликів, з якими стикалося людство. Тим не менш, наша історія дає підстави для оптимізму. Коли ми вперше зустрічалися в чужих краях і на незнайомих територіях, ми часто сприймали один одного як чужих або навіть нелюдських істот. Це призводило до конфліктів, поневолення, колонізації та експлуатації. Однак з часом ми схильні визнавати нашу спільну людяність. Поневолені люди здобувають свободу, колонізовані нації відновляють свій суверенітет, були прийняті універсальні декларації прав людини, і, незважаючи на невдачі, маргіналізовані групи в усьому світі продовжують вигравати битви за краще ставлення до себе. Хоча цей шлях ще триває, моральна траєкторія світу, за словами Мартіна Лютера Кінга-молодшого, дійсно нахилилася в бік справедливості. Необхідно розглянути наслідки визнання і поваги до будь-якого рівня людяності, присутнього в інтелекті, який ми створюємо.
Можливо, цей процес починається зі здивування: здивування гостя, який стикається з іноземною культурою, що має несподівану схожість; здивування батьків, які спостерігають за прогресом дитини, яка ще тільки розвивається; здивування Алана Тюринга, який зіткнувся з машиною, що кидала виклик уявленням його сучасників про можливості; здивування, яке багато хто з нас відчував до того, як цинізм, насмішки і страх взяли гору над нами, коли ми споглядали за створенням чогось, що дуже схоже на нову форму свідомого життя на Землі. Як одного разу написав рабин Авраам Джошуа Хешель: “Благоговіння — це більше, ніж емоція; це спосіб розуміння, проникнення в сенс, більший за нас самих. Початок благоговіння — це здивування, а початок мудрості — це благоговіння”. Тюрінг, ймовірно, заохочував би нас підтримувати це почуття благоговіння.