Ілюстрація / REUTERS

Розвиток технології безпілотних літальних апаратів значно просунув вперед розробки у сфері військової техніки. Дрони та інші системи зброї, в результаті можуть повністю замінити людей-солдатів на полі битви.

Група експертів, яка зібралася на засіданні Американської асоціації сприяння розвитку науки в Вашингтоні, округ Колумбія, різко засудила цю можливість: професори етики і правозахисники закликають заборонити розробку зброї, контрольованої штучним інтелектом, передає Naked Science.

У заяві вчених говориться, що автономна зброя може працювати непередбачуваним чином і вбивати невинних людей. Експерти з етики також стверджують, що право на позбавлення людини життя занадто серйозне і не можна дозволити системам штучного інтелекту вбивати людей без будь-якого втручання і контролю з боку розробників і військових.

Відео дня

"Ми не говоримо про роботів-термінаторів, які гуляють і говорять, і які збираються захопити світ. Те, що нас турбує, реальніше і неминуче - це системи звичайних озброєнь, наділені певною автономією і самостійністю. Такі розробки все частіше стають реальністю. Дрони - досить очевидний приклад, але є і військові літаки, які злітають, пересуваються і приземляються самостійно, і роботи-вартові, які можуть ідентифікувати будь-який рух. Всі вони - попередники автономної зброї", - уточнює директор міжнародної неурядової організації по захисту прав людини Human Rights Watch Мері Уерхем.

Читайте такожФлот ВМС США поповниться чотирма класами кораблів-роботів

Human Rights Watch - одна з 89 неурядових організацій з 50 країн, які сформували кампанію "Зупинити роботів-вбивць", домагаючись укладення міжнародного договору. Ініціативу нью-йоркської організації про заборону підтримав Райан Гарієпі, технічний директор Clearpath Robotics. Його компанія бере військові контракти, але засуджує системи штучного інтелекту для ведення війни, а сам Гарієпі заявив, що не буде займатися подібними розробками, адже коли подібна система зазнає невдачі, її наслідки занадто складно передбачити.

"Якою б сучасною не була система, стан штучного інтелекту обмежений контекстом розпізнавання зображень, тобто не має життєво важливих деталей, щоб мати право судити, кого вбивати на полі бою, а кого залишити в живих, у «вакуумі» прийняття такого рішення просто неприйнятно. Фактично це рішення приймається військовими, програмістами і вченими за тисячі кілометрів від фронту, які не мають уявлення про ситуацію, в якій розгорнуто зброю", - стверджує Гарієпі.

Виникає ще одне важливе питання: хто несе відповідальність, коли машина вирішує забрати людське життя? За словами співробітника приватного університету в Нью-Йорку New School Пітера Асаро, передача роботу повноважень на вбивство - це порушення прав людини, оскільки машини не можуть вважатися істотами з мораллю, а тому не можуть нести відповідальність за прийняття рішень про життя і смерті.

Однак використання керованих штучним інтелектом систем зброї засуджується не всіма, а ініціатива проти ШІ зустріла й опір. Наприклад, США та Росія були серед кількох країн, які ще у вересні, після тижневих переговорів в Женеві, виступили проти прямої заборони на автономну зброю.

Раніше УНІАН повідомляв, що штучний інтелект Libratus навчився грати в покер краще професійних гравців-людей. Технологією зацікавилося Міністерство оборони США.