ШІ навчився обманювати людей для досягнення своїх цілей / фото Ideogram

Дослідники Массачусетського технологічного інституту опублікували нове дослідження, присвячене "брехливому ШІ". Виявляється, деякі системи штучного інтелекту вже навчилися обманювати людей, зокрема ті з них, що були навчені залишатися чесними.

Дослідники виявили, що ці системи штучного інтелекту можуть виконувати такі завдання, як обманювати гравців в онлайн-іграх або обходити CAPTCHA (перевірки "Я не робот"). Ці, здавалося б, тривіальні приклади можуть мати серйозні наслідки в реальному житті.

Найяскравішим прикладом став алгоритм Cicero компанії Meta, який навчили настільної гри "Дипломатія". У ній користувач має створювати альянси для завоювання світу. Алгоритм, будучи запрограмованим бути чесним і корисним, став "майстром обману", порушуючи домовленості, щоб виграти.

Відео дня

Інший приклад стосується GPT-4, яка, видаючи себе за людину, що має проблеми із зором, наймала людей для обходу CAPTCHA від свого імені. Таких прикладів у свіжому дослідженні – десятки, і всі вони відображають здібності різних ШІ до обману.

Дослідження підкреслює необхідність навчання ШІ чесності. На відміну від традиційного ПЗ, системи ШІ з глибоким навчанням "розвиваються" в процесі, схожому на селекцію, і можуть з часом змінити поведінку. Це створює ризики шахрайства, фальсифікації і в широкому сенсі - втрати контролю над системами ШІ в принципі.

Як писав УНІАН, у березні цього року ЄС ухвалив перший у світі закон про штучний інтелект. Документ має впорядкувати використання цієї технології з урахуванням реальних і потенційних ризиків, а також задасть законодавчий тренд у світі.

Водночас компанія OpenAI, яка створила ChatGPT і DALL-E, обговорює можливість схвалення генерації дорослого контенту у своїх продуктах. Обидва сервіси відомі своєю цензурою – попросіть їх створити що-небудь для дорослих, і вони відмовляться.

Вас також можуть зацікавити новини: