Автономный робот-истребитель, способный тактически мыслить, вряд ли выйдет на поле боя уже завтра, говорят специалисты. Однако гонка за лидерство в области искусственного интеллекта, как полагают, уже началась. И некоторые ее участники, как Россия и Китай, вызывают особое беспокойство.
«Тот, кто станет лидером в сфере [искусственного интеллекта], станет властелином мира», ‒ заявил в сентябре 2017 года российский президент Владимир Путин на одном из форумов. Позже он неоднократно повторял эти слова, а мировые СМИ неоднократно их цитировали.
Российский лидер, похоже, серьезно воспринимает искусственный интеллект (ИИ), о чем свидетельствуют увеличенные инвестиции в эту сферу и утверждение «Национальной стратегии развития искусственного интеллекта на период до 2030 года», целью которой является не допустить безусловное лидерство других игроков и отставание России.
В сочетании с тем, как Россия ведет себя в зонах боевых действий, в том числе в Украине, ее покушение на технологии искусственного интеллекта вызывает немало беспокойств на Западе, в частности, в США.
Многие разрабатывают ИИ. Что не так с Россией?
«Намерение [Путина] заключается в использовании любого возможного преимущества для расширения российского влияния и сокращение суверенитета других», ‒ заявил на днях министр обороны США Марк Эспер во время симпозиума.
Россияне, по его словам, применили изощренную и хорошо скоординированную комбинацию беспилотных летательных аппаратов, кибератак и артиллерийских отрядов для нанесения серьезного ущерба украинским силам во время вторжения в Украину.
«С тех пор Москва объявила о разработке автономных систем на основе искусственного интеллекта для наземных транспортных средств, самолетов, атомных подводных лодок, ‒ сказал Эспер. ‒ Мы ожидаем, что они развернут эти возможности в будущих зонах боевых действий».
По мнению Эспера, искусственный интеллект может изменить поле битвы, и страна, которая первой выведет его на поле, будет иметь огромные преимущества перед конкурентами.
В самой России любят похвастаться своими технологиями.
«Как представители Министерства обороны РФ, так и руководство России неоднократно подчеркивали, что в арсенале Вооруженных сил РФ есть целый ряд вооружений, основанных на разработках в области искусственного интеллекта. Это касается, например, беспилотников, истребителей, подводных роботов», ‒ говорится в материале московского Центра Карнеги, который заключает: военное направление является одним из самых сильных с точки зрения развития технологий искусственного интеллекта в России.
Россия, конечно, не единственная занимается разработкой искусственного интеллекта. Но несмотря на то, что полный потенциал ее новейших военных технологий сложно оценить из-за их секретности, а Россию в целом вряд ли можно отнести к мировым лидерам в области искусственного интеллекта по целому ряду причин, покушение именно на потенциальное военное использование технологии становится поводом для беспокойства.
Искусственный интеллект ‒ явление относительно новое и недостаточно урегулированное, и быть уверенным в том, что такие государства, как Россия, известные нарушением международного права, будут соблюдать все правила и этические стандарты, нельзя, считают западные эксперты. И речь идет не только о России.
«Лидеры Пентагона давно обеспокоены тем, что, несмотря на действующие этические правила США, требующие, чтобы человек был «за рулем» решений по применению летальной силы, такие страны, как Россия и Китай, не будут действовать в рамках подобных этических правил», ‒ пишет военный эксперт Крис Осборн в колонке The National Interest.
Китай ежегодно инвестирует десятки миллиардов в развитие ИИ, и правящая Коммунистическая партия имеет целью стать мировым лидером ИИ через 10 лет, заявили в Пентагоне.
«Сейчас китайские производители оружия продают автономные беспилотники, которые, по их мнению, могут наносить смертельные целенаправленные удары. Между тем правительство Китая продвигает разработку беспилотных летательных аппаратов следующего поколения, которые они готовят к международному экспорту», ‒ сказал Эспер.
Понять роботов-убийц
Существует много систем автономного вооружения или действующего на основе искусственного интеллекта, и сейчас есть немало дискуссий по поводу терминологии в этой сфере. Однако если обобщить, речь идет о роботах, способных самостоятельно выполнять военные операции.
«Сегодня есть оружие, активно использующее искусственный интеллект, в том числе такое, которое может самостоятельно искать, выбирать и поражать цели. Эти атрибуты часто связаны с определением того, что составляет летальную автономную систему оружия (или робота-убийцу)», ‒ объясняют обозреватели американского издания The New York Times, выпустившего документальный фильм об использовании автономного оружия на поле боя.
Пожалуй, одним из примеров такого оружия является израильский вооруженный беспилотник Harpy, который может висеть высоко в небе, мониторить большие участки, пока не обнаружит «враждебный радиолокационный сигнал». Тогда он врежется в источник радара и взорвется вместе с целью, рассказывают в материале.
«Для запуска оружия не требуется конкретная цель, и человек не нужен для принятия летального решения. Такой аппарат был продан Чили, Китаю, Индии, Южной Корее и Турции», а китайцы, как сообщается, переделали его в свой собственный вариант.
И тем не менее роботам пока не хватает комплексных необходимых навыков для принятия большинства важных решений на поле боя. Большинство экспертов соглашается, что в случае использования летального оружия привлечение человека просто необходимо. Но есть опасения, что это изменится.
Известный изобретатель Илон Маск, ученый Стивен Хокинг и «отец» Microsoft Билл Гейтс когда-то согласились с тем, что в случае неправильного обращения с искусственным интеллектом он может превратиться в угрозу для существования человечества. Маск вместе со 115 другими лидерами в области искусственного интеллекта даже несколько лет назад подписали открытое письмо в ООН, призвав положить конец гонке вооружений в сфере автономного оружия еще до того, как его использование получит распространение.
«Мы не имеем много времени. Только этот ящик Пандоры откроется, его уже будет сложно закрыть», ‒ говорилось в письме.
Ряд неправительственных организаций уже не один год активно работает, чтобы остановить дальнейший прогресс в использовании автономного летального оружия.
Причин для беспокойства приводят немало. Например, как и любую компьютерную систему, «роботов-убийц» можно будет «сломать» с помощью кибератак, такие работы могут просто выйти из строя и привести к масштабной катастрофе.
В случае нарушения гуманитарного права вопрос будет заключаться в том, кто именно будет нести за это ответственность, если робот будет действовать самостоятельно. Более того, такое оружие может попасть в руки негосударственных субъектов, включая террористические группировки. Но и использование недемократическими субъектами, не придерживающимися общепринятых норм использования такой системы, ‒ также особый повод для волнений.
Многие обращают внимание на то, что за стремительным развитием автономного оружия стоит частный сектор ‒ крупные корпорации, заинтересованные в прибылях, и они активно будут действовать для ускорения развития этих технологий.
«Это дилемма контроля над вооружениями. Чем полезнее будет потенциальное оружие для военных, тем труднее будет его регулировать или запретить», ‒ объяснял когда-то немецкому вещателю Deutsche Welle профессор политических наук в Университете Пенсильвании Майкл Горовиц.
FACEBOOK КОММЕНТАРИИ: