Поки ми користуємося ШІ-інструментами на кшталт ChatGPT і Google Gemini для базових завдань, великі технологічні компанії працюють над чимось більш амбітним.
Поки ви використовуєте ШІ-інструменти на кшталт ChatGPT або Google Gemini для написання листів, генерації фото та автоматизації завдань, перегони за створення штучного загального інтелекту (AGI) вже набирають обертів. Однак CEO великих технологічних компаній, як-от Марк Цукерберг із Meta та Ілон Маск із Tesla, націлені на щось більш амбітне – штучний суперінтелект (ASI).
Усі ці терміни звучать схоже, але позначають абсолютно різні рівні можливостей.
AI (вузький штучний інтелект): виконує конкретні завдання, наприклад, генерацію тексту або фотографій і потребує людського втручання.
AGI (штучний загальний інтелект): машини зможуть мислити, вчитися, ухвалювати рішення і вирішувати проблеми без спеціальної підготовки для кожного завдання.
ASI (штучний суперінтелект): виходить за межі людських можливостей, ухвалюватиме рішення самостійно і вдосконалюватиметься без участі людини.
Суперінтелект – це гіпотетична система, що перевершує людський інтелект у всьому. Від написання коду та генерації відео до проведення складних хірургічних операцій і водіння автомобілів, вона робитиме все одночасно, чого не вистачає сучасним системам ШІ.
Філософ Нік Бостром, який популяризував термін, визначає суперінтелект як "будь-який інтелект, що значно перевершує людські когнітивні здібності людини практично у всіх галузях, які нас цікавлять".
Сучасні системи ШІ потребують людей для їхнього вдосконалення: інженери працюють над кодом, "згодовуючи" моделям величезні обсяги даних для поліпшення їхніх відповідей. Суперінтелект, з іншого боку, може вдосконалюватися сам. Теоретично він міг би переписувати власні алгоритми, конструктивні рішення і системи управління без інструкцій.
Точної впевненості, що надінтелект можливий, немає. Однак, якщо машини стануть розумнішими за людей і зможуть самостійно розвиватися, AI може вийти з-під контролю, якщо не бути обережним. Деякі експерти пророкують появу суперінтелект протягом десятиліття, а інвестори вливають мільярди доларів у компанії, які прагнуть його створити.
У 2023 році співзасновники OpenAI Грег Брокман та Ілля Суцкевер, а також гендиректор Сем Альтман закликали до створення міжнародного регулятора, щоб суперінтелект не захопив людство. Цікаво, що 2024 року Суцкевер залишив OpenAI і заснував стартап, орієнтований на створення безпечного суперінтелекту.
Хоча вважається, що люди зможуть досягти більшого і розв'язувати складні завдання за допомогою суперінтелекту, бо він може стати останнім винаходом, який потрібно буде зробити людині, ризики перевищують можливі плюси.
Загроза робочим місцям: AI вже замінює людей у багатьох професіях, а ASI може призвести до зникнення цілих галузей.
Екзистенціальні ризики: якщо машини почнуть мислити самостійно і керувати системами, це може загрожувати людству – від загроз національній безпеці до потенційного вимирання.
У жовтні 2025 року понад 850 експертів зі штучного інтелекту, включно зі Стівом Возняком, Демісом Гассабісом, Даріо Амодеєю, Геофрі Гінтоном і Йошуа Бенджіо, підписали відкриту заяву із закликом зупинити розробку надінтелекту, поки не буде гарантій його безпечного впровадження.
А глава OpenAI Сем Альтман нещодавно виступив із заявою, що ШІ замінить "не справжню роботу". Нова технологія покаже, які види насправді насправді створюють цінність, а які – лише імітують працю. Заява Альтмана викликала критику і жваві суперечки в мережі.