Главная
Новости Политика Геополитика Мир Россия ИноСМИ Видео

Fox: В гонке за «роботами-убийцами» Пентагон не намерен уступать России и Китаю

Идея о роботах, способных убивать людей без приказа [от человека], уже не одно десятилетие широко эксплуатируется в научной фантастике — вспомните хотя бы «Терминатора». Однако сегодня многие образованные люди утверждают, что это — уже больше не плод человеческой фантазии. В нашем сегодняшнем выпуске наш корреспондент в Пентагоне Лукас Томлинсон расскажет о том, причем тут минобороны США.

Действующие автономно роботы, которые выслеживают людей и убивают их, раньше появлялись только в голливудских фильмах, но их вероятно, вскоре можно будет увидеть на каком-нибудь поле боя неподалеку от вашего дома. Пентагон вкладывает миллиарды долларов в разработку автономных видов вооружения — машин, которые могут однажды получить способность убивать без команды [от человека]. Главный вопрос сейчас — сколько же независимости в решениях им следует предоставить.

СТИВЕН ГУС, Human Rights Watch: Мы убеждены, что полностью автономные вооружения, которые публика скорее всего лучше знает под названием «роботы-убийцы», несут в себе серьезную угрозу для мирных жителей — как, впрочем, и для солдат. Мы считаем, что [создание] подобного вооружения приведет к тому, что ответственность за принятие решений о жизни и смерти будет переложена на машины, в результате чего будут нарушены определенные этические нормы.

Оборонительными вооружениями, в которых для уничтожения атакующих самолетов и приближающихся ракет противника применяется автономность, уже обладают более тридцати государств. В Пентагоне, впрочем, подчеркивают, что решение о нанесении удара будут принимать люди.

ЭШТОН КАРТЕР, министр обороны США: Когда речь заходит о применении силы от имени американского народа, в подобного рода решениях всегда должен принимать участие человек.

Однако критики говорят, что рисковать тут неприемлемо.

СТИВЕН ГУС, Human Rights Watch: Мы полагаем, что их нужно превентивно запретить. Таких машин пока еще не существует, однако их появление уже не за горами.

В 2003 году американский ЗРК Пэтриот, в котором широко используются элементы автономности, сбил два своих самолета, пилоты которых погибли.

ПОЛ ШЭРРИ, эксперт по военным технологиям будущего: Не думаю, что нужно  надеяться на то, что война когда-нибудь станет идеальной и безупречной — неполные данные и несчастные случаи никуда не денутся. Возможно, автоматизация в определенном смысле сможет сделать военные действия более точными, как это уже было с «умным» оружием.

По словам Шэрри, внедрение автономности может снизить смертность среди мирных жителей в зоне военных действий, но лишь если ее будут правильно применять.

Эксперты утверждают, что Пентагон интересуется исключительно применением технологии в области логистики и для других задач, вроде дозаправки самолетов. Другие видят потенциал в беспилотных подлодках – таких как вот этот Ghost Swimmer [«Пловец-призрак»], который может дорасти до подводного дрона.

Уже сегодня автоматизация используется в беспилотных автомобилях, а также на Уолл-Стрит, но она не идеальна.

ПОЛ ШЭРРИ: Рассмотрим нынешнюю ситуацию на биржах — там высока доля автоматизации, но случались ситуации, когда алгоритмы, использующиеся разными компаниями, взаимодействовали неожиданным образом, а потом получался какой-нибудь мгновенный обвал. И мне не кажется, что мы вряд ли захотим узреть аналогичную ситуацию с вооруженными силами, то есть, некую мгновенную войну.

ЛУКАС ТОМЛИСОН, корреспондент CNN: Высшие чины Пентагона говорят, что США необходимо удерживать лидерство в гонке роботизированных вооружений. Такие страны, как Россия и Китай, пытаются развивать технологии, которые позволят им нагнать Америку. А ведь США отчасти одержали победу в холодной войне благодаря своему мастерству в плане инноваций, и Вашингтон надеется это мастерство сохранить. Брэд?
 
С нами с прямым включением из Пентагона был Лукас Томлисон. Спасибо вам, Лукас!
 
Дата выхода материала 16 ноября 2016 года.

Подпишитесь на нас Вконтакте, Одноклассники

476
Похожие новости
02 декабря 2016, 20:15
04 декабря 2016, 07:15
04 декабря 2016, 07:15
02 декабря 2016, 09:45
03 декабря 2016, 20:45
03 декабря 2016, 13:45
Новости партнеров
 
 
Новости партнеров
 
Комментарии
Подпишись на новости
 
Популярные новости
01 декабря 2016, 03:00
30 ноября 2016, 09:45
29 ноября 2016, 17:00
01 декабря 2016, 20:45
02 декабря 2016, 06:30
03 декабря 2016, 04:00
29 ноября 2016, 09:45