
Фахівці Корнуелльського університету (США), підрозділу Google Jigsaw та фонду Wikimedia створили алгоритм, який сканує обговорення в інтернеті і визначає, чим вони закінчаться – грубою руганиною або ввічливою бесідою.
Читайте такожТепер він знає все: вчені навчили штучний інтелект "читати думки" (відео)
Як повідомляє The Verge, систему тренували і тестували на обговореннях статей «Вікіпедії», де редактори обговорювали, зокрема, внесення правок у матеріал і необхідність в більш достовірних джерелах.
Система була запрограмована шукати в обговоренні певні ознаки, які, згідно з дослідженнями, демонструють зв'язок з тоном спілкування.
Приміром, якщо обговорення проходить добре, то в ньому зустрічаються вирази подяки та вітання. Активно використовується слово «будь ласка». Все це створює дружню атмосферу і емоційний буфер між учасниками бесіди, в якій кожен може визнати свою неправоту, зберігши обличчя.
З іншого боку, тривожні знаки, що говорять про потенційний конфлікт, включають в себе наявність повторюваних прямих питань ("Чому відразу про це не згадується?", "Чому ти не подивився на це?") і використання займенників другої особи ("Твої джерела не важливі"), особливо якщо вони зустрічаються у перших репліках бесіди.
Щоб оцінити загальну «токсичність» розмови дослідники використовували перспективний API компанії Google – інструмент з штучним інтелектом, який намагається оцінити, наскільки доброзичливим, нейтральним або агресивним є текст.
По закінченні періоду тренування алгоритм міг передбачити результат бесіди в 65% випадків. У той же час, люди поки виконують це завдання краще, вдало пророкуючи розвиток обговорення у 72% випадків.
Вченим дана робота говорить про те, що вони знаходяться на вірному шляху до створення бота, який зможе втручатися в потенційно «гарячі» спори в мережі.
Раніше фахівці Google навчили робота говорити "по-людськи". Нова розробка компанії - бот Duplex - синтезує людську мову так якісно, що на слух ніяких машинних інтонацій вловити неможливо.