Йдеться про ситуації, коли повідомлення містять погрозу заподіяння фізичної шкоди іншим людям.
Компанія OpenAI підтвердила, що ChatGPT аналізує особисті бесіди користувачів на наявність певних типів небезпечного контенту – і може поділитися ними з правоохоронним органам за необхідності.
Такі діалоги спочатку проходять через автоматичні фільтри, після чого перевіряються невеликою групою модераторів. Саме вони вирішують питання про блокування облікового запису і, у разі виявлення "безпосередньої загрози серйозної фізичної шкоди", про передання інформації поліції, йдеться в новій публікації в блозі OpenAI.
Водночас у компанії наголосили, що випадки самоушкодження поки що не передають владі з міркувань приватності. У подібних ситуаціях ChatGPT має перенаправляти користувачів до фахівців і гарячих ліній підтримки.
Рішення з'явилося на тлі зростаючої критики після випадків самогубств і заподіяння шкоди за порадами розумного чат-бота. Експерти називають такі випадки "ШІ-психозами" – станами, за яких штучний інтелект здатний підмінити людині реальність.
Цей крок викликав бурхливу реакцію. Критики зазначають, що OpenAI не змогла забезпечити повну безпеку технології і змушена застосовувати сувору модерацію, що розходиться з її заявами про захист конфіденційності. Додаткові питання викликає відсутність прозорості – користувачі не знають, які саме слова або теми можуть викликати перевірку і закінчитися дзвінком із поліції.
Генеральний директор OpenAI Сем Альтман раніше попереджав, що ваші листування з ChatGPT можуть бути використані в суді. Чинне законодавство не надає ШІ чат-ботам особливого статусу конфіденційності, так само, як розмови з терапевтом або юристом.
Нагадаємо, у серпні OpenAI запустила GPT-5 – "найкращу мовну модель у світі". За словами компанії, використовувати її – немов спілкуватися з кандидатом наук.
Раніше цього місяця OpenAI також уперше за довгий час випустила відкриті версії СhatGРТ. Їх можна запустити локально і вручну регулювати параметри.