Еволюція змушує нас ставитися до штучного інтелекту, як до людини, і нам потрібно позбутися цієї звички

Еволюція змушує нас ставитися до штучного інтелекту, як до людини

Автор: Ніл Сондерс, професор математики Ґринвіцького університету

Новатор штучного інтелекту (ШІ) Джефрі Гінтон нещодавно звільнився з компанії Google, попередивши про небезпеку того, що технологія «стане розумнішою за нас». Він боїться, що ШІ колись навчиться «маніпулювати людьми, щоб вони виконували те, що він хоче».

Є причини для занепокоєння щодо штучного інтелекту, бо ми часто ставимося до ШІ або говоримо про нього так, ніби це людина. Якщо припинити це і усвідомити, ким він є насправді, це допоможе нам підтримувати плідні стосунки з технологіями.

У своєму нещодавньому есеї американський психолог Ґері Маркус і його співавторка Саша Лючоні порадили нам припинити ставитися до моделей штучного інтелекту, як до людей. Під моделями ШІ вони мають на увазі великі мовні моделі (ВММ), такі як ChatGPT і Bard, якими щодня користуються мільйони людей.

Вони наводять очевидні приклади того, як люди «переоцінювали» коґнітивні здібності ШІ, подібні до людських, що призвело до цілої низки негативних наслідків. Найкумеднішим був випадок із сенатором США, який стверджував, що ChatGPT «самостійно вивчив хімію». Найжахливішим було повідомлення про молодого бельгійця, який, як стверджувалося, наклав на себе руки після тривалих розмов із чат-ботом ШІ.

Автори есею мають рацію, кажучи, що ми повинні перестати ставитися до ШІ, як до людей — свідомих моральних суб’єктів з інтересами, надіями і бажаннями. Однак багатьом це здасться складним або майже неможливим завданням — люди розробили ШІ так, щоб він взаємодіяв з нами, ніби він є людиною, так само як і ми внаслідок біологічної еволюції мимоволі схильні взаємодіяти з ШІ, наче він є живою істотою.

Переконлива імітація

імітація. Очі. ШІ

Причина, чому ВММ можуть так переконливо імітувати людську розмову, полягає в приникливій здогадці новатора обчислювальної техніки Алана Тюринґа, який усвідомив, що комп’ютеру не обов’язково розуміти алґоритм для того, щоб його виконувати. Це означає, що хоч ChatGPT і може створювати емоційно забарвлені тексти, він не розуміє жодного слова в жодному реченні, яке ґенерує.

Розробники ВММ успішно перетворили проблему семантики — поєднання різних слів для створення значень — на проблему статистики, підбираючи слова на основі частоти їхнього попереднього використання. Ідея Тюринґа перегукується з теорією еволюції Дарвіна, яка пояснює, як види пристосовуються до свого оточення, стаючи дедалі складнішими, без необхідности розуміти щось про своє середовище чи самих себе.

Вчений-коґнітивіст і філософ Деніел Денет запровадив поняття «компетентність без розуміння», яке ідеально відображає ідеї Дарвіна та Тюринґа. Ще один важливий внесок Денета — це його «інтенціональне ставлення». По суті, це означає, що для того, щоб повністю пояснити поведінку об’єкта (людини чи не-людини), ми повинні розглядати його як раціонального суб’єкта. Найчастіше це проявляється в нашій схильності олюднювати нелюдські види та інші неживі істоти.

Але це корисно. Наприклад, якщо ми хочемо перемогти комп’ютер у шахи, найкраща стратегія — вважати його раціональним суб’єктом, який «хоче» перемогти нас. Ми можемо пояснити, що причина рокірування комп’ютера, наприклад, полягала в тому, що «він хотів захистити свого короля від нашої атаки», і в цьому не буде жодної помилки.

Ми можемо сказати, що дерево в лісі «хоче дотягтися» до світла. Але ані дерево, ані шаховий комп’ютер не мають «бажань» чи намірів. Водночас, найкращий спосіб пояснити їхню поведінку — поводитися з ними так, ніби вони їх мають.

Наміри та суб’єктність

Наша еволюційна історія наділила нас механізмами, які підштовхують нас всюди шукати наміри та суб’єктність. У доісторичний період ці механізми допомагали нашим предкам уникати хижаків і розвивати альтруїзм у ставленні до своїх найближчих родичів. Це ті самі механізми, що змушують нас бачити обличчя в хмарах і олюднювати неживі об’єкти. Нам не завдасть шкоди, якщо ми замість дерева побачимо ведмедя, але якщо ми приймемо ведмедя за дерево, це може стати нашою останньою помилкою.

Еволюційна психологія доводить, що ми завжди намагаємося інтерпретувати будь-який об’єкт, який може бути людиною, як людину. Ми несвідомо вдаємося до інтенціонального ставлення та приписуємо всі наші коґнітивні здібності та емоції цьому об’єкту.

Враховуючи потенційний прорив, який можуть спричинити ВММ, ми повинні усвідомити, що це просто ймовірнісні моделі, які не мають намірів і не переймаються людьми. Загалом, ми повинні бути особливо пильними щодо використання мови, коли описуємо людиноподібну поведінку ВММ та ШІ. Ось два приклади:

  1. Перший — нещодавній дослід, в якому було встановлено, що ChatGPT здається більш чуйним та дає якісніші відповіді на запитання пацієнтів порівняно з відповідями лікарів. Використовуючи емоційні слова, такі як «чуйність», ШІ переконує нас у тому, що може мислити, розмірковувати і демонструвати справжню турботу про інших — але це не відповідає дійсності.
  2. Другим є випадок з GPT-4 (остання версія технології ChatGPT), який запустили у березні 2023 року. Йому приписали особливу здібність до творчости та обґрунтування. Однак, ми просто бачимо зростання «компетентности», але все ще без «розуміння» (в інтерпретації Денета) і безперечно без жодних намірів — просто знаходження відповідних комбінацій елементів.

Безпечний і надійний

У своїх нещодавніх спостереженнях Гінтон порушив питання короткострокової загрози «недобросовісних акторів», які використовують ШІ для підривної діяльности. Ми з легкістю могли б уявити, як злочинний режим або міжнародна корпорація використовує ШІ, натренований на фейкових новинах або брехні, щоб заполонити суспільний дискурс дезінформацією та підробками. А шахраї можуть використовувати штучний інтелект для полювання на вразливих людей для своїх фінансових махінацій.

У березні цього року Ґері Маркус та інші, зокрема Ілон Маск, підписали відкритого листа із закликом негайно припинити подальший розвиток ВММ. Маркус також закликав створити міжнародну аґенцію для розвитку безпечних, надійних і мирних технологій штучного інтелекту, назвавши її «ЦЕРН для ШІ».

Ба більше, багато хто вважає, що будь-який зґенерований штучним інтелектом контент повинен мати водяний знак, щоб не було жодних сумнівів щодо того, чи ми маємо справу з людиною або чат-ботом.

Реґулювання ШІ не встигає за інноваціями, як це часто відбувається й в інших сферах життя. Проблем більше ніж рішень, і розрив, радше за все, збільшиться, перш ніж скоротиться. Тому наразі формула Денета «компетентність без розуміння» може бути найкращою протиотрутою до нашого вродженого бажання ставитися до ШІ, як до людей.

Стаття вперше була опублікована англійською мовою під назвою «Evolution is making us treat AI like a human, and we need to kick the habit» в журналі The Conversation 16 травня 2023 року.

Переклали Ростислав Кашуба, Маргарита Клименко, Ірина Тесленко


Читати також