Випуск 5. Майбутнє

Штучний інтелект — перевага для Давида чи Голіафа? Інтерв’ю з публічним істориком Джейсоном Стайнгавером

Здається, штучний інтелект дедалі виразніше визначає майбутнє. Можна вважати ШІ інструментом демократизації знань, але кому цей інструмент приносить справжню вигоду? Хто створює наратив? Джейсон Стайнгавер досліджує вплив технологій на суспільство, на наші уявлення про себе, своє минуле й правду в самій її основі. У цьому інтерв’ю він застерігає: ШІ підпорядковується насамперед комерційним настановам. Якщо не долучити всерйоз дослідників, фахівців з історії та етики, ця технологія може тільки поглибити перекоси й викривлення, уже закладені в алгоритмах чималої частки того, що ми читаємо і дивимося. Імовірно, наше цифрове майбутнє залежатиме від того, чи ми сприйматимемо ШІ як даність, чи як людське творіння, яке можна критикувати й скеровувати.

Штучний інтелект — перевага для Давида чи Голіафа? Інтерв’ю з публічним істориком Джейсоном Стайнгавером

Як ви зацікавилися світом технологій саме з перспективи історика?

Я насамперед гуманітарій. Розпочав кар’єру в музейній сфері — був куратором експозицій. Тобто я походжу зі світу публічної історії. Мій світ завжди був дуже відкритий до громадськості. А мене цікавило, як широка аудиторія взаємодіє з історією, як дізнається про минуле, які можливі наслідки розуміння чи нерозуміння цього минулого.

Під час роботи я захопився роллю технологій у тому, як люди сприймають минуле й історію. Зрештою написав книжку про вплив соцмереж на те, що люди знають — або думають, ніби знають, — про історію. А останнім часом досліджую, як штучний інтелект може визначати сприйняття минулого, а також уявлення людей про те, що вони можуть знати про світ загалом.

Як ви зрозуміли, що варто присвятити дослідження штучному інтелекту?

Я зацікавився цією темою, коли працював у Бібліотеці Конгресу — найбільшій бібліотеці світу, де понад 170 мільйонів примірників. Мене вразило, що люди більше довіряють інформації з телефона, ніж безмежним бібліотечним зібранням. Тож я замислився, чому котрісь історичні наративи стають популярними в соцмережах, а інші — ні. Чому ми так беззастережно довіряємо інформації з пристроїв? І до чого це приведе?

Працюючи над своєю книгою «Спотворена історія: як соціальні мережі та всесвітнє павутиння змінили минуле», яка вийшла 2021 року, я провів чимало інтерв’ю з людьми із Кремнієвої долини й помітив, що вони дедалі більше уваги приділяють не соцмережам, а штучному інтелекту. Тоді я усвідомив, що ШІ стає ключовою темою, і відтоді вже близько п’яти років його досліджую.

Як гадаєте, яку роль відіграють гуманітарні науки у формуванні етики й політики щодо штучного інтелекту?

Я не сприймаю штучний інтелект як окремий програмний продукт чи матеріальний об’єкт. Для мене ШІ — це мета. Якщо точніше, це практичне втілення мети, що полягає у відтворенні інтелекту за допомогою створених людиною технологічних систем.

Зазвичай ідеться про відтворення людського інтелекту, але не завжди. Є, наприклад, програми, які намагаються моделювати інтелект китів чи дельфінів. І можна запросто уявити майбутнє, де ми спробуємо відтворити позаземні, іншопланетні форми інтелекту. Тож це не мусить бути людський інтелект, хоча він досі лишається головним орієнтиром.

Якщо ШІ — не так конкретна «річ», як мета, до якої ми рухаємося, то постає питання: хто визначає цю мету? І чим при цьому керується?

Наразі цю мету визначають передусім комерційні інтереси, наукові амбіції й технологічні можливості, а не гуманітарні чи філософські настанови. Звісно, можна сказати, що якщо розширити уявлення, кого вважати гуманітарієм, картина трохи ускладнюється. Можна сказати, що, наприклад, хтось на зразок Стенлі Кубрика, режисера «Космічної одіссеї 2001-го» з її версією штучного інтелекту HAL, — теж по-своєму філософ. Він, безумовно, вплинув на те, як формувався й розвивався ШІ.

Як на мене, дослідники діють здебільшого реактивно. По суті, спершу відбувається поступ до цієї мети — практичного втілення інтелекту в машині. А вже потім вони якось на цей розвиток реагують. Зазвичай їхні відповіді обмежуються занепокоєнням, сумнівами або спробами наставляти технологічні компанії чи комерційні структури на трохи інший курс.

Мені здається, гуманітарії рідко опиняються за одним столом із підприємцями, інвесторами чи інженерами, коли ухвалюються рішення, як будувати конкретні застосунки та які засадничі припущення в них закладати.

Гадаю, усім нам у гуманітаристиці хочеться вірити, що наша залученість усе ж можлива. Але коли завдання насамперед комерційне — підвищити ефективність і швидкість, щоб зросла продуктивність, аби наймати менше працівників і отримувати більше річного доходу, — то простору для гуманітарних досліджень і критичного мислення практично не лишається.

Саме тому я вважаю такою важливою роль критика технологій або принаймні когось, хто допомагає іншим мислити про ШІ «на кілька ходів уперед». Хоча розвитку технології це особливо не сповільнило, що є приводом задуматись про нашу ефективність. Було б чудово, замість відповідати реактивно, знайти способи долучатися проактивно.

Коли ШІ лише починав з’являтися — чи то в науковій фантастиці, чи в перших проблисках машинного інтелекту, — була надія, що ми стоїмо на порозі якоїсь великої розгадки. Ця технологія могла б нарешті відкрити шлях до осягнення загадки людського розуму, таємниці свідомості, природи знання. Але, як ви зазначили, філософів тут випередили корпорації. І, замість допомогти нам знайти «відповідь на питання життя, всесвіту і взагалі», як у книжці Дуґласа Адамса, алгоритми орієнтовані на залучення користувачів і зростання прибутків.

Я схильний вважати, що всі знання невіддільні від історичного контексту. Ми знаємо певні речі, тому що існуємо в конкретний історичний період і певні речі було передано нам у спадок. Обставини й чинники нашого життя теж впливають на суму того, що ми нібито знаємо.

Люди XVII століття знали одне, ми у XXI — зовсім інше. І ми у XXI столітті знаємо те, чого вони просто ніяк не могли знати. Але погоджуся: еволюція штучного інтелекту, принаймні в комерційній сфері, не нагадує ні «Джетсонів», ні «2001 рік: Космічна одіссея». Це радше Microsoft Word на стероїдах. І це теж потрібно: щоб технології на основі ШІ створювали розшифровки, аби люди не робили цього самотужки. Такі інновації й елементи штучного інтелекту, що тут і там проникають у наше життя, не завжди піднесені чи захопливі й, можливо, не наближають нас до відповідей на глибокі екзистенційні питання, проте вони мають цілком практичне застосування.

З глобальнішими проблемами довкола ШІ — від посилення нерівності й упереджень до екологічних наслідків побудови ШІ-інфраструктури — усе складніше. Отут уже точно варто залучити істориків та філософів.

Проте, якщо копнути ці питання глибше, вони стають надто ускладненими й заплутаними, тож корпорації та уряди не хочуть мати з цим діла. Часто безпечніше й менш ризиковано не заглиблюватись у проблеми, а обмежитися поверховими заявами, особливо не зачіпаючи суті.

Один із головних викликів для всіх нас: наскільки серйозні питання ми готові ставити до цієї технології? Наскільки критичними дозволимо собі бути? Чи допустимо, щоб нові технології закріплювали вже наявні слабкості й нерівність, чи спробуємо використати їх для розв’язання цих одвічних проблем? Запитання лишається відкритим.

Як розвиток ШІ впливає на професійну відповідальність істориків у сучасному інформаційному середовищі?

Відповідальність професійних істориків залишається незмінною: точно й чесно з’ясувати, що відбувалось у минулому, чому відбувалось і як воно впливає на сьогодення. З появою штучного інтелекту ця місія стає ще важливішою, адже ШІ здатен із небаченою швидкістю генерувати й поширювати дезінформацію та пропаганду.

Однак питання, чи є для цього місце на ринку? Чи знайдеться фінансування для такої роботи? Чи існує попит у суспільстві? Чи, може, широкий загал цілком задоволений життям у світі, де очевидна пропаганда й дезінформація цілком збігаються з тим, у що люди хочуть вірити незалежно від об’єктивних фактів?

Точність і правдивість нині важливі як ніколи. На жаль, останніми роками фінансування історичних досліджень, журналістики, гуманітарних наук суттєво скоротилося, а замінити його практично нічим.

Без значних інвестицій у медіаграмотність і освіту пропаганда буде швидко поширюватися й сприйматися за правду. Рекомендаційні алгоритми все тільки погіршують, підживлюючи нашу увагу до певних тем і цим створюючи замкнені кола, що може підштовхувати людей до радикальних або конспірологічних поглядів — із реальними наслідками.

Відповідальність величезна, гуманітарії самотужки не впораються: потрібні широкі об’єднання, державне та благодійне фінансування, а також суспільство, яке цінує точні обґрунтовані знання.

Останні десять років показали, як інформаційний ландшафт — оцей інформаційний цикл — може заводити людей у пастку крайніх і конспірологічних ідей. А переконання можуть перерости в реальні дії, що завдають шкоди іншим.

Чи може штучний інтелект допомогти з упровадженням етичних норм чи протидією дезінформації — і в чиїх руках ці інструменти перебувають насправді?

Наразі відповідь невідома. Є, безумовно, науковці, які намагаються застосовувати штучний інтелект у цьому напрямі. Я багато розмірковував, чи ШІ у його нинішньому вигляді буде більшою перевагою для Давида, чи для Голіафа. І моя інтуїція підказує, що нині ШІ радше працює на користь Голіафа.

Штучний інтелект здатен посилювати нерівність замість її підважувати. Частково тому, що, хоча окремі застосунки можуть бути недорогими, сама інфраструктура ШІ надзвичайно коштовна. Лише жменька держав спроможні її підтримувати: США, Китай і ще кілька.

Сервери даних, системи охолодження, решта ресурсів, чипи, програмне забезпечення, інженерні кадри — усе це надзвичайно дорого. Уся влада у сфері розробки ШІ зосередилася на вершечку, у руках нечисленних гравців, які цілком і повністю диктують, як функціонуватиме вся система.

Мене турбує, як ця динаміка проявиться в речах на кшталт дезінформації. Наприклад, Росія щороку витрачає від одного до двох мільярдів доларів на дезінформацію та пропаганду. Уявіть собі цю неймовірну суму, усю побудовану за двадцять років інфраструктуру, додайте сюди ШІ — і протистояти цьому стає ще страшніше. Якщо вони — Голіаф, які тоді шанси в Давида?

Тепер у терористичних організацій по всьому світу є «провідні спеціалісти зі штучного інтелекту». Сама ця думка має викликати занепокоєння. А фінансування в багатьох із цих організацій щедре: чи від держав-ізгоїв, чи через криптовалюти, чи різні інші канали.

Деякі дослідники експериментують із ШІ, пробуючи знайти йому цікаві застосування на користь своїх професійних цінностей і завдань. Але, боюся, їхні зусилля мізерні на тлі великих держав, організацій, корпорацій, які й зараз мають значно більше влади, ресурсів і можливостей — а з ШІ-застосунками у своєму розпорядженні тільки міцнітимуть і набиратимуть на силі.

Агентність і відповідальність штучного інтелекту — предмет багатьох дискусій. Зазвичай, коли стається нещасний випадок — скажімо, працівник гине на виробництві через несправність машини, — ми не звинувачуємо саму машину. Відповідальність покладається на тих, хто її розробив, обслуговував або контролював. Машину розглядають як інструмент без моральної агентності. Але що коли ШІ виходить за межі механічних функцій і починає впливати на людські рішення? Приміром, якщо ШІ-застосунок якимось чином переконає людину завдати собі шкоди. Чи є сенс говорити про відповідальність ШІ за наслідки? І якщо так, то в чому полягає відповідальність, якщо ШІ, на відміну від людини, неможливо ні покарати, ні заохотити?

Це складні питання. Я дещо обережно ставлюся до олюднення ШІ. На мою думку, такі поняття, як агентність, стосуються людей (або ширше — живих істот, наділених свідомістю). ШІ не є живою свідомою істотою.

Повертаючись до мого визначення штучного інтелекту, який я бачу як мету. Мету з використанням технологічних компонентів — чипів, комп’ютерів, процесорів, центрів обробки даних — зімітувати людський інтелект. Тому відповідальність, мені здається, лежить на людях, які цієї мети досягають. Якщо мета — застосувати ШІ, щоб автомобілі водили самі себе так, як водить людина, то відповідальність лежить на компанії чи інженерах, які цієї мети досягають, а не на самому автомобілі.

Тож я не вважаю, що можна давати людям поблажки, бо ШІ-застосунки стають дедалі складнішими й здібнішими. Радше навіть навпаки. Мабуть, треба покладати на людей ще більше відповідальності. Це забезпечить штучному інтелекту етичніше майбутнє, аніж те, що чекатиме на нас за наявної ситуації.

У повсякденному житті легко піддатися спокусі й забути, що ШІ, як-от ChatGPT, — це просто машина. Навіть усвідомлюючи це, ми часто мимоволі кажемо «будь ласка» і «дякую», ніби ведемо справжню розмову. Те, як штучний інтелект використовує мову й будує раціональні речення, уподібнює його до людини. Психологічно нам складно сприймати його суто як технологію.

Почасти цим він і приваблює — цією спокусою. Водночас це виклик усім нам у сфері ШІ-грамотності й медіаграмотності. Треба нагадувати людям, як воно все влаштовано насправді, якомога старанніше пояснювати, як працюють ці застосунки.

Треба наділити людей таким собі рентгенівським зором, щоб вони могли дивитися наскрізь і на зворотний бік того, що їм видають за чисту монету. Дати людям таке тривимірне бачення — наскрізь, по той бік і поза тим, що нам демонструють, — це якраз важливий внесок гуманітаріїв.

Чи вбачаєте ви ризик у тому, що ШІ-системи можуть затьмарити чи й витіснити інші способи пізнання світу? Як «оракул» чи всезнаюча сутність, яка обмежує альтернативні ракурси. Таке враження, що ми вже навіть не гуглимо, а одразу запитуємо в ШІ.

OpenAI тільки й мріє, щоб усі перейшли на ChatGPT і зовсім забули про Google. Думаю, їхня кінцева мета — захопити цю частку ринку. Треба визнати, як стрімко поширюється штучний інтелект. Ми часто асоціюємо його з великими мовними моделями й інструментами на зразок ChatGPT, але ШІ застосовується скрізь: в охороні здоров’я, авіаперевезеннях, освіті, державному управлінні, фінансах. Однак ми схильні до надто вузького уявлення про ШІ, особливо в контексті гуманітарних знань.

Менше з тим, я не вважаю, що штучний інтелект стане єдиним джерелом істини — якимось усемогутнім інтелектом у центрі всесвіту, який транслює безпомильні знання, а ми маємо їх сліпо приймати. Навпаки, що ширший і детальніший контекст, то цікавішими стають питання довкола ШІ. Наприклад, управління повітряним рухом: які наслідки використання ШІ в плануванні авіарейсів? Чи може це підвищити безпеку пасажирів? Оптимізувати розхід пального? Зменшити викиди CO₂? Тут ШІ як таке собі централізоване джерело істини може мати відчутні й вимірювані переваги.

Однак з іншими галузями, як-от історія, усе складніше. Тут додається інтерпретація. Суть не лише в знанні фактів, а й у тому, як ми їх тлумачимо. Наразі великі мовні моделі ще не продемонстрували здатності до специфічного, інтерпретаційного історичного аналізу.

Тож іще рано робити висновки. ШІ може принести відчутну користь окремим професіям і спільнотам, а ця користь може поширитися й на суспільство загалом. Якщо, наприклад, ШІ допоможе розробити нові методи лікування раку чи хвороби Альцгаймера, ми всі від цього виграємо. Можливо, у таких випадках ми й шануватимемо штучний інтелект як «оракула». Але в інших сферах, що вимагають точності й критичності, ШІ може так і залишатися не вартим довіри, хоч як його розробникам хотілося б протилежного.

Чи штучний інтелект здатен генерувати справді нові знання, чи обмежується перевпорядкуванням, беручи за основу те, що людству вже відомо? Чи в нього може статися щось на зразок осяяння — як ті ідеї, що приводять до революційних відкриттів на кшталт пеніциліну? Чи все ж ШІ — це лише корисний інструмент на підмогу дослідникам, лікарям і фахівцям, який сам винахідником ніколи не стане?

За останні два десятиліття ми створили величезний корпус даних, значна частина яких для більшості людей недоступна. Тому нам потрібні механізми впорядкування цієї інформації, щоб вона надавалася до розуміння. У цьому плані штучний інтелект може бути незамінним інструментом.

Ще одна річ, з якою може допомогти ШІ, — це ставити запитання, про які ми навіть не замислювалися. А відповідаючи на них, ми можемо дійти несподіваних і значущих відкриттів. Можливо, якщо ШІ-застосунки таке робитимуть, людству це піде тільки на користь.

Я порівнюю ШІ з винайденням оптичної лінзи. Завдяки лінзі в нас є окуляри, які полегшують повсякдення. Проте, крім того, лінзи дали початок мікроскопам, які відкрили нам цілий незвіданий шар життя — мікроби, патогени, інфекції. У результаті постали цілковито нові наукові питання, зокрема про вакцинацію.

Те саме з телескопами: вони дали змогу подивитися вгору й побачити всесвіт таким, яким ми ніколи його не бачили. Це породило питання космосу, планет, зірок, позаземного життя — питання, які ми доти й не здогадалися б ставити.

Отже, винахід лінзи, особливо в поєднанні з іншими винаходами й здібностями виняткових мислителів, розширив коло питань, доступних для людського дослідження.

Цікаво, чи щось таке може відбутися завдяки штучному інтелекту. У поєднанні з людським розумом — з нашою творчою стороною, здібностями, винахідливістю — ШІ може допомогти ставити принципово нові запитання чи виявляти закономірності, яких ми раніше не помічали. Що з цього вийде? А оце якраз найцікавіше.

Громадськість занепокоєна штучним інтелектом у таких аспектах, як авторське право, достовірність інформації, здатність ШІ генерувати справді нові знання чи лише переробляти вже наявні ідеї. Та чи є глибші або ж менш очевидні проблеми, які загал ще не цілком усвідомлює? Які видиміші фахівцям, що безпосередньо працюють з ШІ, скажімо, у Кремнієвій долині, і на які нам варто звернути більше уваги.

Це я хочу дослідити у своїй наступній книжці. Поділяю вашу здогадку: чимало нинішніх обговорень, навіть за участі гуманітаріїв, істориків та інших дослідників, доволі поверхові. Деякі дискусії йдуть далі, починають викривати ширші структурні проблеми та системну нерівність, на які слід зважати. Проте, на мою думку, є ще глибший рівень, якого ми поки що не досягли: розуміння, що ця технологія робить із нами і що може зробити з нами в майбутньому.

Зі схожим передчуттям я починав працювати над першою книжкою — «Спотворена історія». Тоді було вже багато дискусій про соцмережі й навіть трохи про те, як у них представлена історія. Однак я відчував, що під поверхнею ховається щось глибше, куди я ще не докопався. Зараз у мене подібне відчуття щодо штучного інтелекту.

Переклад з англійської Юлії Куліш.

Олена Груба
Олена Груба

Дослідниця філософії

Публікації

Читати всі