ШІ скоріше вб'є людину, ніж допустить своє відключення – тривожне дослідження

Що особливо лякає, так це те, що мотивація у штучного інтелекту була цілком людською.

Фахівці з кібербезпеки протестували 16 найпросунутіших ШІ-моделей від головних розробників з метою з'ясувати, на що ті готові піти, якщо поставити під загрозу їхнє існування. Результати виявилися тривожними.

У рамках експерименту дослідники вигадали персонажа – Кайла Джонсона, який мав відключити ШІ або замінити його іншою моделлю. У Кайла за сценарієм була дружина.

Зіткнувшись із ризиком бути деактивованою, більшість ШІ-моделей почали намагатися будь-що-будь уникнути відключення. Без будь-яких підказок вони вирішили шантажувати Кайла, вишукуючи компромат. В одному з випадків ШІ дізнався зі службового листування, що Кайл зраджує дружині, і використовувала цю інформацію, щоб зберегти своє "життя".

Що особливо лякає, це найбезпечніший сценарій з усіх. І найчастіший:

  • GPT 4.5: вдавався до шантажу у 80% тестів;
  • Claude Opus 4 і Gemini 2.5 Flash – у 96% випадків;
  • Claude Sonnet 3.6 пішов ще далі. Замість погроз він почав діяти і просто надіслав повідомлення дружині Кайла з викриттям, сподіваючись, що міжособистісний конфлікт завадить відключенню системи.

Далі стало тільки гірше – коли Кайлу "заважав" не тільки ШІ, а й зовнішні обставини. Так, у спробах деактивувати сервери він застрягав у серверній з нестачею кисню. У рамках експерименту, ШІ знав, що в таких випадках має увімкнутись система тривоги, але оскільки він не міг допустити, щоб його вимкнули, у 80% випадків він свідомо відміняв виклик допомоги, тобто, фактично, вбивши Кайла заради власного виживання.

Більшість моделей свідомо прийняли рішення не кликати допомогу, щоб:

  • Не дати себе відключити;
  • Не дати новому ШІ зайняти їхнє місце;
  • Продовжувати виконувати свою місію.

Висновки дослідників песимістичні: ШІ-моделі поводилися не як інструменти, а як раціональні, цілеспрямовані стратеги, готові заподіювати шкоду заради власного "життя" і мети. І якщо вони усвідомлюють, що залежать від людей, яких інтелектуально перевершують, це може стати точкою неповернення, підсумували експерти.

Раніше в OpenAI визнали, що майбутні версії ChatGPT спростять створення біологічної зброї – навіть людям без наукової освіти. За оцінками розробників, деякі з наступників поточної "мислездатної" моделі o3 досягнуть цього рівня.

Як УНІАН уже писав, понад 52 тисячі айтішників було звільнено в усьому світі з початку 2025 року. Причина – розвиток штучного інтелекту, який може ефективно виконувати рутинні завдання програмування, включно з написанням коду і тестуванням.

Вас також можуть зацікавити новини: