Комп'ютерний експерт професор Стюарт Рассел каже, що ризик, пов'язаний з машинами для вбивства з штучним інтелектом, які вже можуть ідентифікувати людські цілі, настільки великий, що він хоче, щоб вони були заборонені.
Підпишись на наш Viber: новини, гумор та розваги!
ПідписатисяВідповідну публікацію розмістили на порталі «Daily Star»
Військове командування попередило, що людство стикається із загрозою знищення розумною зброєю в стилі Термінатора.
Машинами для вбивства зі штучним інтелектом вже можуть знаходити і вбивати конкретні людські цілі.
Представник Каліфорнійського університету сказав: "Смертельний квадрокоптер на базі штучного інтелекту може бути розміром з банку крему для взуття. Досить близько 3 г вибухівки, щоб убити людину з близької відстані. Контейнер може вмістити мільйон смертоносних боєприпасів, і всі вони можуть бути відправлені виконувати свою роботу одночасно".
Боти-реальний відгомін сюжету фільму Арнольда Шварценеггера 1984 року "Термінатор".
Міноборони вкладає великі кошти в ШІ, але заявило, що в його зброї завжди буде задіяна людина в процесі стрільби.
"Я думаю, доречно трохи страху, а не страху, коли ви встаєте завтра вранці і думаєте, що мій ноутбук вб'є мене або щось в цьому роді, але потрібно думати про майбутнє... Я б сказав, що у нас такий же страх з приводу клімату", - сказав він технологічному кореспонденту BBC Рорі Селлан-Джонс.
Експерт додав, що військова частина лекцій сама по собі заслуговує окремої розмови.
"Причина, полягає в тому, що зброя, про яку ми говорили останні шість або сім років, зараз починає вироблятися і продаватися", - підсумував представник Каліфорнійського університету.
Як раніше повідомляв портал "Znaj", у мережі показали роботів-кур'єрів.