
Фахівці з кібербезпеки протестували 16 найпросунутіших ШІ-моделей від головних розробників з метою з'ясувати, на що ті готові піти, якщо поставити під загрозу їхнє існування. Результати виявилися тривожними.
У рамках експерименту дослідники вигадали персонажа – Кайла Джонсона, який мав відключити ШІ або замінити його іншою моделлю. У Кайла за сценарієм була дружина.
Зіткнувшись із ризиком бути деактивованою, більшість ШІ-моделей почали намагатися будь-що-будь уникнути відключення. Без будь-яких підказок вони вирішили шантажувати Кайла, вишукуючи компромат. В одному з випадків ШІ дізнався зі службового листування, що Кайл зраджує дружині, і використовувала цю інформацію, щоб зберегти своє "життя".
Що особливо лякає, це найбезпечніший сценарій з усіх. І найчастіший:
- GPT 4.5: вдавався до шантажу у 80% тестів;
- Claude Opus 4 і Gemini 2.5 Flash – у 96% випадків;
- Claude Sonnet 3.6 пішов ще далі. Замість погроз він почав діяти і просто надіслав повідомлення дружині Кайла з викриттям, сподіваючись, що міжособистісний конфлікт завадить відключенню системи.
Далі стало тільки гірше – коли Кайлу "заважав" не тільки ШІ, а й зовнішні обставини. Так, у спробах деактивувати сервери він застрягав у серверній з нестачею кисню. У рамках експерименту, ШІ знав, що в таких випадках має увімкнутись система тривоги, але оскільки він не міг допустити, щоб його вимкнули, у 80% випадків він свідомо відміняв виклик допомоги, тобто, фактично, вбивши Кайла заради власного виживання.
Більшість моделей свідомо прийняли рішення не кликати допомогу, щоб:
- Не дати себе відключити;
- Не дати новому ШІ зайняти їхнє місце;
- Продовжувати виконувати свою місію.
Висновки дослідників песимістичні: ШІ-моделі поводилися не як інструменти, а як раціональні, цілеспрямовані стратеги, готові заподіювати шкоду заради власного "життя" і мети. І якщо вони усвідомлюють, що залежать від людей, яких інтелектуально перевершують, це може стати точкою неповернення, підсумували експерти.
Раніше в OpenAI визнали, що майбутні версії ChatGPT спростять створення біологічної зброї – навіть людям без наукової освіти. За оцінками розробників, деякі з наступників поточної "мислездатної" моделі o3 досягнуть цього рівня.
Як УНІАН уже писав, понад 52 тисячі айтішників було звільнено в усьому світі з початку 2025 року. Причина – розвиток штучного інтелекту, який може ефективно виконувати рутинні завдання програмування, включно з написанням коду і тестуванням.