Программа

Дослідники компанії Google створили комп'ютерну програму, яка вміє самостійно навчатися проходження комп'ютерних ігор і в перспективі зможе змагатися навіть з досвідченими гравцями. Про свої досягнення вони розповіли на сторінках наукового журналу "Нейчур", пише ТАСС.

Програма "Агент", як її охрестили дослідники з підрозділу відповідального за розробку штучного інтелекту (ШІ) Deep Mind, самостійно освоїла 49 різних ретро-ігор і "придумала" свої способи їх проходження. За твердженням розробників, в деяких випадках комп'ютер приймав такі рішення, до яких вони самі не відразу домитикували.

В якості наочної демонстрації можливостей "Агента" Deep Mind опублікували відео, на якому "молодий ШІ" вчиться грати в "Арканоід": за допомогою платформи він відбивав віртуальний м'яч і розбивав "стіну", що складається з невеликих блоків. І якщо спочатку він ледь розумів, що від нього взагалі потрібно, то через 600 партій "Агент" не тільки навчився стабільно відбивати "м'яч", але і відправляти його за "стіну", роблячи в ній тунелі.

Відео дня

Читайте такожGoogle досі не отримує прибутку від YouTube

Свій винахід вчені називають не інакше як проривом в області створення ШІ. На відміну від розробленого в 1997 році компанією "Ай-бі-ем" комп'ютера і однойменної програми Deep Blue, яка в 1997 році здобула сенсаційну перемогу в шаховій партії проти самого Гаррі Каспарова, "Агент" може навчатися в буквальному розумінні з нуля.

"Створюючи Deep Blue, інженери і програмісти заклали в програму необхідні знання, - пояснив засновник Deep Mind Деміс Хассабіс, додавши, що розроблені його командою алгоритми дозволяють "Агенту" вчитися на своїх помилках і навчатися самостійно, не володіючи ніякими початковими знаннями. "Це перший крок, який доводить, що програми можуть навчатися самостійно", - заявив Хассабіс.

Крім розваг, творці алгоритму бачать його застосування і в цілком серйозних сферах - наприклад, при створенні автономних автомобілів, що пересуваються без участі водія.