Комітет з юридичних питань Європейського парламенту ухвалив, що штучний інтелект не повинен самостійно приймати рішення про застосування зброї і зажадав заборонити використання автономних бойових систем на міжнародному рівні.
Розробки в області створення систем штучного інтелекту неминуче призвели до того, що розробники починають впроваджувати «розумні» системи в зброю і військову техніку.
Наприклад, розробляються системи, що дозволяють безпілотникам автоматично виявляти і розпізнавати цілі, а також виконувати роль ведених для пілотованих літальних апаратів. І це тільки початок: у майбутніх військових розробках штучний інтелект матиме все більше значення.
Впровадження систем штучного інтелекту в озброєння і військову техніку при цьому викликає безліч питань етичного і правового характеру: наприклад, застосування в збройних конфліктах автономних систем озброєння є досить спірним моментом.
За оцінкою Комітету з юридичних питань Європарламенту, автономні системи озброєння можна використовувати в збройних конфліктах лише в тому випадку, якщо рішення про відкриття вогню приймає людина.
“Автономні бойові системи слід використовувати в якості крайнього заходу, і цей крок можна визнати законним, тільки якщо ними керує людина, оскільки саме людина повинна робити вибір між життям і смертю”, – йдеться в доповіді.
Людина завжди повинна мати можливість внести коригування в дії автономних бойових систем, зупинити їх роботу або зовсім деактивувати такі системи в разі непередбачених обставин, запевняють фахівці.
При цьому повинні дотримуватися умови, при яких можна буде точно ідентифікувати людину, яка керувала автономними бойовими системами. Це необхідно, наприклад, на випадок пошуку винних у незаконному застосуванні зброї. За дії штучного інтелекту на полі бою повинен відповідати людина, а при розробці «розумного» зброї необхідно зробити всі можливі кроки для мінімізації збоїв і неполадок.