
Все більше людей використовують ChatGPT як особистого психотерапевта, але керівник OpenAI Сем Альтман застерігає: такі бесіди не захищені законом так само, як бесіди зі справжнім фахівцем.
"Зараз, якщо ви поговорите з терапевтом, юристом або лікарем про свої проблеми, існує правовий захист цих розмов", – заявив Альтман Тео Вону в подкасті, що вийшов у середу. А ось із розмовами з ШІ-чатботами такої ясності та безпеки немає.
Він також додав, що в разі судового розгляду OpenAI може бути зобов'язана надати переписку користувача за рішенням суду. За словами Альтмана, якщо ви обговорюєте з ChatGPT "найделікатніші речі", то ви також маєте бути готові їх оприлюднити.
На відміну від зашифрованих месенджерів на кшталт WhatsApp або Signal, OpenAI технічно може отримувати доступ до чатів між користувачами і ChatGPT. Розробник використовує ці розмови для поліпшення моделі або для виявлення порушень.
Згідно з політикою зберігання даних OpenAI, видалені чати користувачів у безоплатній і платних версіях ChatGPT зберігаються на серверах не більше 30 днів. Але іноді переписки зберігаються з "юридичних причин і міркувань безпеки". Саме ця лазівка може стати проблемою для користувачів.
Проте Альтман переконаний, що для спілкування з ШІ має застосовуватися "та сама концепція конфіденційності, що й у бесідах із терапевтами", і що це питання необхідно вирішити якомога швидше. Доти користувачам варто пам'ятати, що відверті розмови з ChatGPT можуть виявитися далеко не такими приватними, як їм здається.
Тим часом OpenAI цього літа обіцяє випустити нову ШІ-модель, яку буде важко відрізнити від людини. GPT-5 з'єднає в собі найкращі напрацювання попередніх ШІ-моделей.
Зі свого боку Ілон Маск представив Grok 4, назвавши її "найрозумнішим ШІ в історії людства". Хоча пізніше з'ясувалося, що для відповідей на спірні питання чат-бот регулярно звертається до особистих публікацій самого Маска.