Джефрі Гінтон попереджає світ про небезпеку штучного інтелекту

Джефрі Гінтон попереджає світ про небезпеку штучного інтелекту

Серед тих, хто відкрито ставив питання про етичність використання ChatGPT, з самого початку був розробник нейромереж, британо-канадський вчений Джефрі Гінтон. Він зробив значний внесок у розвиток чат-ботів зі штучним інтелектом, але за останні місяці перетворився на принципового противника необачного застосування ШІ. Весною 2023 року він залишив компанію Google. Експеримент розповідає про те, за що Гінтона прозвали "хрещеним батьком ШІ" і чому він так критикує технології, які ще недавно допомагав створювати.

Гінтон пішов з Google і виступив проти чат-ботів, тому що через них звичайні люди більше не знатимуть, де правда

У 2012 році професор Університету Торонто Джефрі Гінтон і двоє його студентів розробили систему, яка могла аналізувати тисячі знімків і навчати себе розпізнавати в реальності схожі об'єкти — наприклад, квіти, тварин або автомобілі — з безпрецедентною точністю. Після видатного досягнення Гінтон та його учні Ілля Суцкевер та Алекс Крижевський продовжили дослідження — а компанію, в якій вони працювали над нейромережами, придбала Google. Саме розробки британського професора та двох студентів прискорили впровадження ШІ – і призвели до появи ChatGPT, Google Bard та інших чат-ботів.

2018-го Гінтон отримав премію імені Алана Тюрінга з формулюванням «за концептуальні та інженерні прориви, що зробили глибинні нейромережі наріжним компонентом у обчислювальній техніці». Через п'ять років вчений різко змінив погляди на ШІ, залишив Google — і 1 травня дав інтерв'ю The New York Times (NYT), в якому висловився про небезпеку в цій сфері. Головна загроза чат-ботів та інших подібних технологій, на думку Гінтона, полягає в тому, що інтернет так наповниться фейковим контентом — згенерованими фотографіями, відео та текстами, — що звичайні люди «більше не знатимуть, де правда».

Вчений також висловив побоювання, що ШІ-технології згодом перетворяться з помічників людей на їхню заміну та залишать представників багатьох професій без роботи.

«Деякі люди вірили, що технології можуть стати розумнішими, ніж ми, але більшість вважала це за перебільшення, — сказав Гінтон в інтерв'ю NYT. — Я теж думав, що ще далеко. Я думав, що нам залишається до цього від 30 до 50 років чи навіть більше. Очевидно, я більше так не вважаю».

Гінтон розвивав ідеї Тюрінга і мріяв створити штучну систему, яка б навчалася, як людський мозок

Гінтон народився 1947 року в сім'ї шановного ентомолога, яка жила в Вімблдоні (передмісті Лондона). Його прадід Джордж Буль розробив математичну логіку, а названа на його честь Булева алгебра заклала основи для багатьох технологій, що отримали розвиток в інформаційну еру.

На розчарування батька Джефрі вирішив вивчати не комах, а людей. 1970-го він закінчив Кембриджський університет за спеціальністю «експериментальна психологія», але потім узяв паузу в академічній діяльності і цілий рік займався столярною справою. "Наука втомила мене, і я вирішив, що хочу бути теслярем", - пояснював Гінтон. У 1972 році Джефрі зацікавився програмою зі штучного інтелекту в Единбурзькому університеті, залишив мрію про кар'єру тесляра та переїхав до Шотландії. Там він поринув у розробку нейронних мереж.

«Тоді в цю ідею не вірила жодна людина на землі, – розповідав Гінтон. — Вона вважалася глухим кутом навіть серед дослідників ШІ».

Проте розробки молодого британця привернули увагу групи когнітивних психологів із Сан-Дієго. Гінтон відправився до США і почав досліджувати метод зворотного розповсюдження помилки — алгоритм, який дозволяв нейронним мережам навчатися та вдосконалюватись. Пізніше методи, у яких Гінтон взяв активну участь, назвали глибоким навчанням. Вони дозволяли ШІ як виконувати конкретні дії у межах одного алгоритму, так і розширювати свої можливості за допомогою зовнішніх даних.

«Ідея полягала в тому, щоб отримати пристрій, який би навчався так само, як навчається мозок, — розповідав Гінтон. — Це була не моя ідея, про те саме думав Алан Тюрінг. Він вважав, що мозок є неорганізованою машиною, яка використовує навчання з підкріпленням (спосіб машинного навчання, коли система навчається, взаємодіючи з середовищем), щоб змінювати зв'язки в собі, і яка здатна навчитися чому завгодно. Він вважав, що це найкращий підхід до вивчення інтелекту».

Прагнення розробити систему, яка б навчатися так само, як людський мозок, визначило всю кар'єру Гінтона. Наприкінці 1970-х і 1980-х він активно намагався створити алгоритми, здатні розпізнавати звуки та зображення. Ключову роль в  проектах вчених на той час грали внутрішні уявлення, тобто інформаційні структури, які сприймаюча система створює і зберігає як комбінації якостей, властивих зовнішнім об'єктам.

"Питання про те, як створювати внутрішні уявлення, вважалося святим Граалем досліджень ШІ", - пояснив Гінтон. Однак комп'ютери півстоліття тому не мали достатньої швидкості, щоб генерувати внутрішні уявлення так само швидко, як людський мозок.

З 1982 Гінтон займав позицію професора в Університеті Карнегі — Меллона в Піттсбурзі, але політика адміністрації американського президента Рональда Рейгана все більше дратувала британця. Йому не подобалося, що більшість досліджень ШІ в США спонсоруються міністерством оборони, тому в середині 1980-х Гінтон перебрався до Канади, де йому запропонували посади в Канадському інституті перспективних досліджень та Університеті Торонто.

Там Гінтон продовжував дослідження, незважаючи на те, що багато його колег на той момент розчарувалися в ідеї створити здатний навчатися ШІ, і зайнялися іншими проектами.

«У 1990-х набори даних були недостатньо великими, а комп'ютери, як і раніше, недостатньо швидкими, — розповів Гінтон. — Із маленькими наборами даних краще працювали інші методи. Вони не відволікали безліччю інформації. Це дуже пригнічувало, оскільки у 1980-х ми розробили метод зворотного розповсюдження помилки та думали, що вирішили всі проблеми. Нас непокоїло, чому у нас, як і раніше, не виходило використовувати цю технологію».

Головоломка з навчанням штучних систем вирішилася з появою більш швидких і потужних комп'ютерів вже в XXI столітті. Гінтону та його колегам вдалося впровадити в штучні системи алгоритми, які дозволяли тим самим формувати внутрішні уявлення. Ще ШІ постачали патернами мови, які дозволяли сприймати та інтерпретувати усне мовлення та письмові тексти. Закладені в системах Гінтона детектори ознак обробляли фрагменти інформації та знаходили зв'язок між ними, завдяки чому процес навчання помітно прискорився.

Займатися дослідженнями Гінтону доводилося стоячи через проблеми зі здоров'ям. Спину він пошкодив ще у підлітковому віці, коли переносив обігрівач матері. З того часу сидяче положення загрожувало вченому грижею міжхребцевого диска, тому він звик постійно стояти.

«Останнього разу я сідав 2005-го, — зізнався Гінтон 2012 року. — І це виявилося великою помилкою».

«Схожі ідеї були і в інших вчених, але він завжди опинявся в центрі подій, — пояснив внесок Гінтона у дослідження ШІ журналіст NYT та письменник Кейд Мец. — Він брав активну участь у створенні систем, які навчилися розпізнавати спочатку мовлення, а потім зображення. Ці два моменти стали ключовими для технологічного прогресу та для того, як ШІ застосовується у наш час».

Ще два роки тому Гінтон розробляв нову систему, але змінив думку про ШІ через технологічні перегони Google та Microsoft

Після розробки нейронної мережі з унікальними можливостями до глибинного навчання у 2012-му Гінтон заснував компанію DNNresearch та найняв студентів Іллю Суцкевера та Алекса Крижевського, які разом із ним займалися дослідженнями ШІ. Незважаючи на скромний статус компанії всього з трьома офіційними співробітниками, між великими корпораціями вибухнула боротьба за можливість поглинути DNNresearch. На співпрацю з Гінтоном претендували китайський технологічний гігант Baidu, Google, Microsoft та британський стартап DeepMind британського нейробіолога Деміса Гасабіса, запущений лише двома роками раніше.

За підсумками аукціону DNNresearch перейшла під контроль Google за 44 мільйони доларів. Незважаючи на готовність Baidu запропонувати більшу суму, Гінтон сам вирішив зупинити торги, оскільки не захотів, щоб наукова співпраця перетворювалася на фарс. З того часу і до травня поточного року «хрещений батько ШІ» продовжував розробку досконаліших нейронних мереж саме в Google.

У 2021 Гінтон зосередився на створенні системи GLOM. За задумом Гінтона, нова розробка повинна була вирішити одну з основних проблем, пов'язаних з ШІ, оскільки мала б здатність розпізнавати ті самі об'єкти з різних ракурсів. Перш, незважаючи на стрімкий розвиток нейронних систем і пов'язаних з ними технологій, алгоритм міг, наприклад, не розпізнати одну і ту ж чашку, якщо вона зображувалася спочатку збоку, а потім зверху. Подібні завдання продовжували мотивувати і надихати Гінтона, незважаючи на статус і становище, якого він досяг за майже півстолітньої кар'єри.

Ще одна ідея Гінтона полягала в тому, щоб забезпечити нейронні системи «векторами згоди» — алгоритмами, які б аналізували інформацію подібним чином, та доповнювали один одного і допомагали скласти більш повну картину. Вчений порівнював подібний підхід із групою людей, зайнятих мозковим штурмом: всі вони можуть погоджуватися між собою, проте в ході дискусії у них з високою ймовірністю вдасться вдосконалювати індивідуальні внутрішні уявлення.

«Джеф дуже незвичайний мислитель у тому плані, що він здатний поєднувати складні математичні концепти з біологічними факторами і на основі цього зв'язку формулювати теорії, — зазначає нейровчена і колишня студентка Гінтона Сью Беккер. — Дослідники більш вузького профілю концентруються або на математичній теорії, або на нейробіології. У них набагато менше шансів знайти відповідь на питання, як можуть вчитися та думати люди та машини».

Коли Google, OpenAI та інші технологічні компанії, зайняті дослідженнями ШІ, почали розробляти нейронні мережі, які навчалися на основі великих фрагментів цифрового тексту, Гінтон припустив, що тепер у машин з'явиться більше шансів розпізнавати та генерувати мови. Однак цей спосіб навчання, на його думку, все одно поступався тому, як розпізнають текст та мовлення люди.

Позиція Гінтона змінилася у 2022 році, коли Google та OpenAI розробили системи з набагато більшими, ніж раніше, базами даних. До цього вчений пишався тим, що Google діє обережно і не допускає попадання на ринок технологій, що теоретично здатні завдати шкоди людству. Але останній рік конкуренція між Microsoft і Google підштовхнула обидві компанії до випуску чат-ботів, можливості яких, на думку Гінтона, ще не до кінця усвідомлюють навіть самі розробники. За словами вченого, у деяких аспектах нейронні мережі стали досконалішими, ніж людський мозок.

«Є ймовірність, що те, що відбувається в цих системах, набагато перевершує за складністю процеси в людському мозку, — зазначив учений. — Подивіться на те, що відбувалося [у сфері досліджень ШІ] п'ять років тому, і те, що відбувається зараз. Уявіть, з якою швидкістю зміни відбуватимуться у майбутньому. Це лякає".

Більшість колег Гінтона поки вважають загрозу гіпотетичною, але він сам упевнений, що, щоб уникнути катастрофи, потрібно взяти під суворий контроль Google, Microsoft та інших технологічних гігантів.

Гінтон побоюється, що технології зрештою зітруть для більшості людей кордон між вигадкою та реальністю, а також кардинальним чином змінять ситуацію на ринку праці. Ще один привід для побоювань вченого у тому, що штучні системи можуть навчатися непередбачуваній поведінці, коли аналізують великі масиви даних. Це означає, що людям все складніше прогнозувати механізми функціонування ШІ.

В інтерв'ю NYT після виходу з Google зазначено, що Гінтон шкодує про роботу всього свого життя, але втішає себе виправданням:

«Якби я цього не зробив, це зробив би хтось інший».

У пізнішій розмові з виданням MIT Technology Review вчений уточнив:

[Журналіст NYT] намагався змусити мене сказати, що я шкодую. Зрештою, я сказав, що, можливо, невеликий жаль в мене є. [Але] я не думаю, що приймав якісь неправильні рішення під час досліджень [щодо створення нейромереж]. Насправді [у 1970-ті та 80-ті роки] не можна було передбачати [поточний етап розвитку ШІ]. До останнього моменту я думав, що екзистенційна криза [через загрозу ШІ] ще дуже далека [від нас]. Загалом ніякого жалю з приводу того, що я зробив, у мене немає.


Читати також