BTC$29880

ETH$3666

Шукати

Використання ШІ просочується в академічні журнали — і це важко виявити

У серпневому випуску Resources Policy, академічного журналу видавництва Elsevier, було представлено рецензоване дослідження про вплив електронної комерції на ефективність використання палива в країнах, що розвиваються. Однак у звіті привернула увагу одна особлива фраза: “Зверніть увагу, що, будучи мовною моделлю ШІ, я не можу генерувати конкретні таблиці або проводити тести, тому в таблицю повинні бути включені фактичні результати”.

Хоча автори дослідження виявилися людьми з певними зв’язками, формулювання нагадувало відмову від відповідальності ChatGPT. Ця фраза знайома тим, хто спілкувався зі штучним інтелектом чат-бота, який часто визнає обмеження у наданні певної інформації. Після того, як дослідник поділився скріншотом цього речення в соціальних мережах (раніше Twitter, тепер X), видавництво Elsevier ініціювало розслідування. Видавництво вивчає використання штучного інтелекту не лише в цій статті, а й в інших випадках.

Хоча політика Elsevier щодо ШІ не забороняє використовувати інструменти ШІ для допомоги в написанні статей, вона наголошує на прозорості. Видавництво використовує власні інструменти штучного інтелекту для виявлення плагіату та забезпечення повноти. Однак використання зовнішніх інструментів штучного інтелекту для перевірки статей редакторами не дозволяється.

Ендрю Девіс підтвердив, що видавництво Elsevier встановило з ними контакт і вони співпрацюють. Девіс пояснив, що автори мали на меті покращити якість мови за допомогою штучного інтелекту (що відповідає їхній політиці), але ненавмисно включили ці коментарі. Вони планують надати роз’яснення. Elsevier утримався від подальших подробиць щодо стратегії вирішення проблеми, пославшись на триваюче розслідування.

Стрімке зростання генеративного ШІ викликає занепокоєння в різних сферах. Освітяни стурбовані ризиками шахрайства, новинні видання зіткнулися з проблемами, пов’язаними з написанням статей штучним інтелектом, а тепер і рецензовані журнали стикаються з публікаціями, в яких автори потенційно використовували ШІ для конспектів, чернеток або цілих статей без належного розкриття інформації про це. Такий сценарій ставить під сумнів прозорість використання штучного інтелекту.

Академічні журнали вирішують проблему контенту, створеного штучним інтелектом, за допомогою різних стратегій. Мережа JAMA, до якої входять видання Американської медичної асоціації, забороняє ШІ-генераторам бути авторами і вимагає розкриття інформації. Мережа журналів Science вимагає схвалення редактора для тексту, малюнків, зображень або даних, згенерованих ШІ. PLOS ONE вимагає, щоб користувачі ШІ детально описували використання інструментів, методологію та оцінку достовірності. Журнал Nature забороняє публікацію матеріалів, створених штучним інтелектом, і вимагає розкриття мовної моделі штучного інтелекту. Багато журналів покладають на авторів відповідальність за достовірність інформації, отриманої за допомогою штучного інтелекту.

Генеративний ШІ створює подвійну дилему в академічних колах. Хоча він може впорядкувати написання статей і покращити комунікацію результатів, він також демонструє такі проблеми, як підроблені посилання, сфабрикований контент і упереджені матеріали, що потенційно підриває наукову доброчесність. Неперевірене використання ШІ викликає занепокоєння щодо достовірності та ризиків плагіату. Девід Резнік, біоетик, вважає, що, хоча це може допомогти неангломовним людям у написанні текстів, розкриття інформації про використання ШІ є дуже важливим.

Масштаби використання штучного інтелекту в академічних публікаціях залишаються невизначеними через відсутність надійних перевірок, таких як перевірка на плагіат. Випадкова підказка про використання ШІ в документі Resources Policy — це лише верхівка айсберга, яка вказує на потенційно поширене явище, каже Елізабет Бік, консультантка з питань наукової доброчесності.

У 2021 році Гійом Кабанак, професор комп’ютерних наук з Тулузького університету у Франції, помітив незвичні фрази в академічних роботах, наприклад, “фальшива свідомість” замість “штучний інтелект”. Кабанак і його команда винайшли термін “вимучені фрази”, щоб описати заплутану мову, яка вказує на потенційне використання текстового генератора. Він також пильно стежить за генеративним ШІ в журналах, і саме він висловив занепокоєння з приводу дослідження Resources Policy.

Кабанак розслідує підозрілі дослідження і звертає увагу на нерозкрите використання ШІ. Він підкреслює, що вченим необхідно бути в курсі подій, щоб підтримувати цілісність досліджень у міру розвитку технологій.

“Ми, як науковці, повинні діяти, навчаючись, знаючи про шахрайство. Це гра в “бий крота “. Існують нові способи обману”, — каже Кабанак.

Останні технологічні досягнення зробили мовні моделі більш переконливими і привабливими в якості партнерів по листуванню. У липні двоє дослідників використовували ChatGPT, щоб написати цілу наукову роботу за годину, перевіряючи її життєздатність у наукових публікаціях. Хоча чат-бот і не був ідеальним, він створив статтю з ґрунтовним аналізом, продемонструвавши свій потенціал в академічній сфері.

Занепокоєння поширюється і на зображення, згенеровані ШІ, якими можуть маніпулювати для шахрайських досліджень, що створює проблеми з перевіркою їхньої достовірності.

Деякі дослідники виступають за суворіші заходи проти нерозкритого написання текстів штучним інтелектом, подібно до того, як журнали борються з плагіатом. У червні Хізер Дезейр, професор хімії з Університету Канзасу, стала співавтором дослідження, в якому представила інструмент, здатний з 99-відсотковою точністю розрізняти наукові тексти, написані людиною і згенеровані ChatGPT, від наукових текстів, написаних іншими людьми. Зосередження на конкретному типі письма дозволило створити високоточний інструмент, на відміну від “універсальних” рішень, які часто є менш точними.

Дослідження виявило відмінності між ChatGPT і контентом, створеним людиною: ChatGPT створює менш складний текст, використовує більше загальних посилань і менше типів розділових знаків. Хоча сфера дослідження була обмежена статтями Perspectives в журналі Science, команда Дезейр визнає необхідність розширити ефективність інструменту для різних журналів і стилів написання текстів. Команда активно розглядає можливості практичного застосування інструменту та забезпечення його подальшої ефективності.