Иллюстрация / REUTERS

Розробники з DeepMind (британська компанія, яку придбала Google) перевірили здатність штучного інтелекту співпрацювати з іншими і виявили, що у випадках, коли нейромережі загрожує можливість програшу, вона схильна використовувати агресивні тактики поведінки для того, щоб забезпечити собі виграш, передає ZN.UA.

У ході дослідження вчені провели 40 мільйонів раундів комп'ютерної гри зі збирання фруктів між двома "агентами" DeepMind, які повинні були змагатися один з одним і зібрати настільки багато віртуальних яблук, наскільки це буде можливо.

Читайте такожШтучний інтелект на конкурсі краси виявився расистом

Відео дня

Виявилося, що поки в грі була достатня кількість яблук штучний інтелект вів себе мирно, але по мірі того, як яблук ставало все менше агенти були схильні використовувати лазер для того, щоб вибити опонента з гри і зібрати яблука.

Якщо ж агенти не використовували лазерні промені, вони могли закінчити гру з однаковою кількістю яблук. Цікаво, що саме таку тактику обрали "менш інтелектуальні" версії DeepMind. Саботаж, агресію і жадібність демонстрували тільки більш комплексні версії штучного інтелекту.

Більш того, більш комплексні форми DeepMind були схильні раніше почати використання лазера і таким чином отримати доступ до левової частки яблук. На думку дослідників, це свідчить про те, що більш інтелектуально розвинені агенти більше схильні до навчання у навколишнього середовища і, як наслідок, до більш агресивних тактик поведінки.

Дослідники також перевірили можливості штучного інтелекту в грі Wolfpack, в якій два агента DeepMind грали як вовки, а один – як вівця. Вчені підкреслюють, що з цієї гри штучний інтелект виніс думку про те, що кооперація з іншими може принести бажаний результат.