Використання ШІ збільшує неетичну поведінку, показало дослідження / колаж УНІАН, фото ua.depositphotos.com

Люди набагато частіше брешуть та шахраюють, коли використовують ШІ для виконання завдань. Про це йдеться в новому дослідженні, опублікованому в журналі Nature.

Зої Рахван з Інституту психіатрії Макса Планка назвав це "моральною дистанцією" - ШІ нібито ставить екран між людьми та їхніми діями. У підсумку люди охочіше діють неетично, коли можуть перекласти відповідальність на машини.

Це не зовсім новина для тих, хто читав про студентів, які використовують ChatGPT для списування, або юристів, які надають суду посилання на вигадані нейромережею подібні випадки судових процесів, але цікаво побачити кількісні докази.

Відео дня

Щоб вивчити питання етичної поведінки та ШІ, дослідницька група провела 13 тестів на 8000 учасниках з метою визначення рівня чесності в людей, коли вони інструктують ШІ виконати дію. З'ясувалося, що з нейромережею люди брешуть у чотири рази частіше.

Без неї майже всі відповідали чесно, але щойно з'являлася опція "відповісти через ШІ" – брехунів різко додавалося. Самі ШІ-агенти теж демонструють тривожну поведінку. Аналіз 35 тисяч діалогів показав: у 34% випадків боти підштовхували до агресії, домагань або навіть насильства.

"Результати ясно показують, що треба терміново розвивати технічні заходи і законодавство, а суспільству – зрозуміти, що означає розділяти моральну відповідальність із машинами", – підсумовує дослідження.

Згідно з нещодавнім дослідженням, ChatGPT та інші чат-боти стали брехати вдвічі частіше. Зростання кількості помилок пояснюється тим, що нейромережа більше не відмовляється відповідати на запитання - навіть без достатньої верифікації інформації.

Нагадаємо, минулого місяця OpenAI запустила GPT-5 – "найкращу мовну модель у світі". За словами авторів, використовувати її – немов спілкуватися з кандидатом наук.

Вас також можуть зацікавити новини: