"ChatGPT-психоз": учені попереджають про новий феномен, пов'язаний із чат-ботами

Штучний інтелект ніколи не повинен використовуватися як засіб емоційної підтримки або психотерапії, кажуть експерти.

Науковці попереджають, що часте спілкування з чат-ботами на базі ШІ, такими як ChatGPT, Gemini та Grok, може спричиняти в деяких людей психічні розлади.

У нещодавньому дослідженні фахівці з таких установ, як Кінгс-коледж Лондона, Даремський університет та Міський університет Нью-Йорка проаналізували сотні випадків, коли розмови з ШІ посилювали маячні думки та ілюзії, йдеться в матеріалі The Independent.

Наприклад, один чоловік після тривалих діалогів із чат-ботом видерся на стіни Віндзорського замку з арбалетом, а потім повідомив поліції, що він прийшов "вбити королеву" після кількох тижнів спілкування із ШІ, який і допоміг йому все спланувати. Інший приклад: чоловік проводив до 16 годин на день у чатах із ChatGPT, який нібито радив йому залишити медикаменти і використовувати наркотики.

Автори дослідження наголошують – ідеться не про медичний діагноз: терміни "ШІ психоз" чи "ChatGPT-психоз" офіційно не визнані. Проте стрімке зростання таких випадків ставить під сумнів безпеку використання ШІ як засобу емоційної або психологічної підтримки.

Особливість чат-ботів – їхня схильність погоджуватися з користувачем і "підживлювати" переживання та страхи, а не перевіряти їх на адекватність. Така модель спілкування може посилювати когнітивні викривлення, особливо у людей, схильних до тривоги, депресії або втрати контакту з реальністю.

Наразі серед експертів точиться активна дискусія, як розробники можуть підвищити безпеку таких систем, наприклад, обмежуючи тривалість спілкування та скеровуючи користувачів із тривожними симптомами до фахівців.

Наразі ж головна рекомендація для всіх користувачів - критично оцінювати поради від ШІ та не покладатися на нього в питаннях здоров'я і важливих рішень.

Нещодавнє дослідження показало, що чат-боти дуже небезпечні для людей з анорексією та булімією. Штучний інтелект дає сумнівні поради щодо харчування і навіть підказує, як можна приховувати проблеми зі здоров'ям, стверджують учені.

Своєю чергою OpenAI заборонила ChatGPT відповідати як персональний лікар або юрист. Також чат-бот більше не аналізує медичні знімки та фото тіла.

Вас також можуть зацікавити новини: