Штучний інтелект навчили писати фальшиві новини / vpnsrus.com

Система штучного інтелекту, яка генерує реалістичні історії, вірші й статті, була оновлена. І декому здається, що вона тепер пише тексти не гірше, ніж люди. Генератор текстів був створений компанією OpenAI. Оригінальна версія машини була визнана «надто небезпечною», щоб її оприлюднювати. Адже деякі зловісні групи могли б зловживати її функціями.

Однак, нова більш потужна версія штучного інтелекту, яка здатна писати фальшиві новини чи спам в соціальних мережах, все ж була опублікована, — пише BBC. Британське видання, а також деякі експерти в царині штучного інтелекту, вирішили випробувати опублікований алгоритм, який отримав назву GPT-2.

Читайте такожФейкові новини можуть викликати неправдиві спогади - дослідження

Відео дня

Його тренували за допомогою бази даних з 8 мільйонів сайтів. Він здатен адаптуватися під стиль і суть даного йому тексту. Алгоритм може закінчити вірш Вільяма Шекспіра чи написати статтю.

«Через наші занепокоєння щодо зловісного використання технології, ми не публікуємо треновану модель. Як експеримент у відповідальному розкритті, ми натомість оприлюднюємо значно меншу модель для дослідників, щоб вони могли експериментувати», - пояснили в OpenAI.

В результаті в загальний доступ потрапила версія штучного інтелекту з меншими можливостями. Вона використовує меншу кількість фраз і зворотів, ніж передова модель. Цього місяця OpenAI розширила можливості доступної версії, надавши їй доступ до більш ширшої бази тренувальних даних.

Технічне видання The Next Web оцінило оновлення: «Ця версія працює майже чудово для використання в якості загального штучного інтелекту для генерації текстів. Але це майже».

Читайте такожШтучний інтелект вперше в історії можуть визнати автором винаходу

«Я боюся GPT-2, тому що це той вид технологій, які злі люди будуть використовувати для маніпуляції населенням. І, як на мене, це небезпечніше, ніж будь-яка зброя», - сказав автор статті Трістан Грін.

BBC пише, що теж випробувало систему, давши їй кілька ввідних речень для продовження історії. Але результат виявився не дуже логічним, хоч і грамотним. Професор комп’ютерних наук Університету Шеффілда Ноел Шаркі теж провів власні випробування системи й лишився не дуже враженим.

«Якби все працювало так, як задумали в OpenAI, система стала б корисним інструментом для легкої генерації фальшивих новин і спаму. На щастя, в нинішній формі вона генерує неузгоджений і смішний текст», - пояснив експерт.

Засновник компанії Envisioners Дейв Коплін теж погрався з GPT-2, давши системі початок класичного жарту: «Чоловік заходить в бар…». Результат виявився зовсім не таким, як очікував Коплін.

Читайте такожGoogle створив перший дудл з технологією штучного інтелекту (відео)

«Чоловік заходить в бар і замовляє дві пінти пива й дві чарки віскі. Коли він намагався заплатити, на нього напали два чоловіка. Один з них викрикнув: «Це за Сирію». Чоловік лишився стікати кров’ю з порізаним горлом», - написала система.

Коплін дійшов висновку, що згенерований текст став добрим уроком про те, як будь-яка система штучного інтелекту буде відображати упередження у тренувальних даних.

«Мій короткий експеримент з моделлю чітко вказує на те, що велика частина даних для тренування були взяті з новинних репортажів в інтернеті», - сказав він.