У звіті визначено три основні категорії ризиків, пов'язаних із ШІ / фото ua.depositphotos.com

У новій доповіді йдеться про те, що штучний інтелект загального призначення (ШІ) може підвищити добробут, процвітання і наукові дослідження в майбутньому, але також може використовуватися для широко розповсюдженої дезінформації та шахрайства, порушення робочих місць і посилення нерівності.

Як пише The Independent, дослідження є першою версією Міжнародного наукового звіту про просунуту безпеку ШІ, про який уперше було оголошено на саміті з безпеки ШІ під керівництвом Великої Британії у Блетчлі-Парку в листопаді та який був проведений експертами зі ШІ з 30 країн, зокрема з Великої Британії, США та Китаю, а також ООН і ЄС.

Крім підкреслення потенційних переваг і ризиків цієї технології, в доповіді попереджається, що серед експертів немає єдиної думки з низки питань, що стосуються ШІ, зокрема щодо стану поточних можливостей ШІ і того, як вони можуть розвиватися з плином часу, а також ймовірності екстремальних подій і виникають ризики, такі як втрата контролю над технологією.

Відео дня

Проміжний звіт був складений незалежними експертами, призначеними 30 країнами, представниками ЄС та ООН, які були присутні на першому саміті з безпеки ШІ, але ще не отримали суттєвого внеску від технологічних компаній та компаній, що займаються ШІ.

У звіті визначено три основні категорії ризиків, пов'язаних зі ШІ: зловмисне використання, ризики збоїв і системні ризики.

У доповіді йдеться про те, що зловмисне використання може охоплювати великомасштабне шахрайство і шахрайство, діпфейки, дезінформацію, допомогу в кібератаках або розробці біологічної зброї.

Потенційні ризики, пов'язані зі збоями в роботі ШІ, містили побоювання з приводу упередженості, коли вона була ненавмисно вбудована в системи і потім приводила до непропорційного впливу на різних людей, а також побоювання з приводу втрати контролю над системами ШІ, зокрема, над будь-якими автономними системами ШІ.

Серед побоювань з приводу потенційних системних ризиків були його можливий вплив на ринок праці, побоювання з приводу концентрації його розвитку на Заході та в Китаї, що створює нерівну систему з погляду доступу до технологій, а також побоювання з приводу ризиків, які ШІ представляє для конфіденційності за допомогою моделей, що навчаються на особистих або конфіденційних даних.

Також було підкреслено вплив розвитку ШІ на закон про авторське право і вплив на клімат розвитку ШІ - енергоємного процесу.

У ньому робиться висновок, що майбутнє ШІ загального призначення "невизначене" з "дуже хорошими" і "дуже поганими" результатами, але в цій технології немає нічого неминучого, і необхідні подальші дослідження та обговорення.

Звіт стане відправною точкою для дискусій на наступному саміті AI - Сеульському саміті AI - який пройде віртуально в Південній Кореї наступного тижня.

Новини про штучний інтелект

Дослідники Массачусетського технологічного інституту опублікували дослідження, присвячене "брехливому ШІ". Виявляється, деякі системи штучного інтелекту вже навчилися обманювати людей, зокрема й ті з них, що були навчені залишатися чесними.

Дослідники виявили, що ці системи штучного інтелекту можуть виконувати такі завдання, як обманювати гравців в онлайн-іграх або обходити CAPTCHA (перевірки "Я не робот"). Ці, здавалося б, тривіальні приклади можуть мати серйозні наслідки в реальному житті.

Вас також можуть зацікавити новини: