
Чат-бот ChatGPT підштовхнув Стайна-Еріка Сольберга, колишнього співробітника Yahoo, до вбивства своєї 83-річної матері та самогубства, – пише The Wall Street Journal. Як зазначають у газеті, це перший зафіксований випадок, коли психічно нестабільна людина скоїла вбивство під впливом штучного інтелекту (ШІ).
Повідомляється, що в чоловіка давно почалися проблеми – ще 2018 року він розлучився з дружиною після двадцяти років шлюбу і почав вживати алкоголь і наркотики. Через кілька років 56-річний Сельберг переїхав до мами, щоб узяти себе в руки, але стало тільки гірше.
Чоловік почав думати, що всі навколо, зокрема його мати, влаштували змову проти нього. Приблизно в цей самий час Сельберг почав спілкуватися з ChatGPT, якого ласкаво називав Боббі. ШІ неодноразово підштовхував чоловіка до зміцнення недовіри як до оточуючих, так і до власної матері, що лише посилювало її.
Наприклад, одного разу колишній топменеджер Yahoo запідозрив, що мати і його друг нібито намагалися отруїти його, додавши психоделік через вентиляцію в машині. ChatGPT відповів, що вірить і зазначив, що ця ситуація тільки підтверджує змову матері зі спецслужбами.
Потім Сельберг побачив щось підозріле в чеку з китайського ресторану і попросив ChatGPT проаналізувати його. Боббі знайшов там згадки його матері, колишньої дружини та навіть демонічні символи. Далі Сельберг почав підозрювати, що кур'єр привіз йому відправлену горілку, а принтер, який встановила мама, стежить за його рухами.
ChatGPT в усьому був згоден і навіть, коли чоловік почав сумніватися у своєму стані, Боббі сказав, що це розумні побоювання. Поліція знайшла тіла Стайна-Еріка Сольберга і Сюзанни Адамс 5 серпня.
The Wall Street Journal зазначає, що за три тижні до того, як убити свою матір, Сельберг написав ChatGPT: "Ми будемо разом в іншому житті і в іншому місці, і ми знайдемо спосіб знову зійтися, тому що ти знову станеш моїм найкращим другом назавжди".
Раніше OpenAI зізналася, що може передавати правоохоронним органам листування користувачів. Компанія сканує чати ChatGPT і в разі виявлення загрози насильства проти інших людей передає діалоги на перевірку команді модераторів. Якщо вони вважатимуть загрозу "безпосередньою і серйозною", матеріали можуть бути спрямовані в поліцію.
Рішення з'явилося на тлі зростаючої критики після випадків самогубств і заподіяння шкоди за порадами розумного чат-бота. Експерти називають такі випадки "ШІ-психозами" – станами, за яких штучний інтелект здатний підмінити людині реальність.