Те, чим ви ділитеся з ChatGPT, може бути використано проти вас / колаж УНІАН, фото ua.depositphotos.com

Все більше людей використовують ChatGPT як особистого психотерапевта, але керівник OpenAI Сем Альтман застерігає: такі бесіди не захищені законом так само, як бесіди зі справжнім фахівцем.

"Зараз, якщо ви поговорите з терапевтом, юристом або лікарем про свої проблеми, існує правовий захист цих розмов", – заявив Альтман Тео Вону в подкасті, що вийшов у середу. А ось із розмовами з ШІ-чатботами такої ясності та безпеки немає.

Він також додав, що в разі судового розгляду OpenAI може бути зобов'язана надати переписку користувача за рішенням суду. За словами Альтмана, якщо ви обговорюєте з ChatGPT "найделікатніші речі", то ви також маєте бути готові їх оприлюднити.

Відео дня

На відміну від зашифрованих месенджерів на кшталт WhatsApp або Signal, OpenAI технічно може отримувати доступ до чатів між користувачами і ChatGPT. Розробник використовує ці розмови для поліпшення моделі або для виявлення порушень.

Згідно з політикою зберігання даних OpenAI, видалені чати користувачів у безоплатній і платних версіях ChatGPT зберігаються на серверах не більше 30 днів. Але іноді переписки зберігаються з "юридичних причин і міркувань безпеки". Саме ця лазівка може стати проблемою для користувачів.

Проте Альтман переконаний, що для спілкування з ШІ має застосовуватися "та сама концепція конфіденційності, що й у бесідах із терапевтами", і що це питання необхідно вирішити якомога швидше. Доти користувачам варто пам'ятати, що відверті розмови з ChatGPT можуть виявитися далеко не такими приватними, як їм здається.

Тим часом OpenAI цього літа обіцяє випустити нову ШІ-модель, яку буде важко відрізнити від людини. GPT-5 з'єднає в собі найкращі напрацювання попередніх ШІ-моделей.

Зі свого боку Ілон Маск представив Grok 4, назвавши її "найрозумнішим ШІ в історії людства". Хоча пізніше з'ясувалося, що для відповідей на спірні питання чат-бот регулярно звертається до особистих публікацій самого Маска.

Вас також можуть зацікавити новини: