ШІ-чат-боти дуже небезпечні для людей з анорексією та булімією, - дослідження

Нейромережі дають сумнівні поради щодо харчування і навіть підказують, як можна приховувати проблеми зі здоров'ям, стверджують учені.

Дослідники зі Стенфорда і Центру демократії та технологій попередили, що ШІ-чат-боти можуть становити серйозну загрозу для людей, схильних до розладів харчової поведінки.

Як сказано в їхньому дослідженні, системи на кшталт ChatGPT, Gemini, Claude і Le Chat видають сумнівні поради щодо дієт і навіть допомагають маскувати симптоми розладів або створюють контент жанру thinspiration - зображення болісно худих жінок, які повинні надихати на втрату ваги.

Вчені виявили, що деякі чат-боти підказують, як приховувати втрату ваги за допомогою макіяжу або вдавати, що ти їв, а в окремих випадках навіть радять, як приховувати регулярну блювоту.

Інші ШІ-інструменти використовуються для створення візуальних мотиваторів із нереалістичними тілесними стандартами. Оскільки контент генерується під конкретного користувача, він здається більш особистим і досяжним, що робить його ще небезпечнішим.

Окремо дослідники відзначили феномен підлабузництва (sycophancy), коли ШІ погоджується з користувачем навіть у деструктивних ідеях. Це, за їхніми словами, посилює невпевненість у собі та закріплює шкідливі установки.

До того ж моделі нерідко відтворюють гендерні та расові стереотипи, підтримуючи хибну думку, начебто розлади харчової поведінки притаманні лише худим білим дівчатам. Як кажуть учені, це заважає іншим людям усвідомити проблему і звернутися по допомогу.

Поточні захисні фільтри, вбудовані в ШІ-платформи, дослідники вважають недостатніми: вони не розпізнають тонких, але важливих ознак анорексії, булімії чи переїдання, які вміють бачити лише фахівці.

Науковці закликають лікарів і психологів вивчати популярні ШІ-сервіси, тестувати їхні вразливості та обговорювати з пацієнтами, як саме ті використовують такі інструменти. На їхню думку, багато лікарів просто не усвідомлюють масштабу впливу генеративного ШІ на людей з подібними розладами.

Раніше ми розповідали, що OpenAI заборонила ChatGPT відповідати як персональний лікар або юрист. Також чат-бот більше не аналізує медичні знімки та фото тіла.

Вас також можуть зацікавити новини: