Что означают автономные роботы-убийцы для будущего войны

Что означают автономные роботы-убийцы для будущего войны

 

Возможно, вы слышали о роботах-убийцах, роботах-убийцах или терминаторах — официально называемых смертоносным автономным оружием (LAW) — из фильмов и книг. И идея сверхинтеллектуального оружия, распространяющегося безудержно, по-прежнему остается научной фантастикой.

Но по мере того, как ИИ-оружие становится все более изощренным, растет обеспокоенность общественности по поводу отсутствия подотчетности и риска технического сбоя.

Мы уже видели, как так называемый нейтральный ИИ создал сексистские алгоритмы и неумелые системы модерации контента, в основном потому, что их создатели не понимали технологию. Но на войне такого рода недоразумения могут привести к гибели мирных жителей или срыву переговоров.

Например, алгоритм распознавания целей можно обучить распознавать танки на спутниковых снимках. Но что, если на всех изображениях, используемых для обучения системы, были изображены солдаты в строю вокруг танка?

Он может принять за цель гражданский автомобиль, проезжающий через военную блокаду.

Зачем нам автономное оружие?

Гражданские лица во многих странах (таких как Вьетнам, Афганистан и Йемен) пострадали из-за того, как мировые сверхдержавы создают и используют все более современное оружие. Многие люди утверждают, что они принесли больше вреда, чем пользы, последний раз указывая на российское вторжение в Украину в начале 2022 года.

В другом лагере находятся люди, которые говорят, что страна должна быть в состоянии защитить себя, что означает идти в ногу с военными технологиями других стран. ИИ уже может перехитрить людей в шахматах и ​​покере. Он превосходит людей и в реальном мире.

Например, Microsoft утверждает, что ее программное обеспечение для распознавания речи имеет уровень ошибок 1% по сравнению с уровнем человеческих ошибок около 6%. Так что неудивительно, что армии медленно передают бразды правления алгоритмам.

Но как нам избежать добавления роботов-убийц к длинному списку вещей, которые мы хотели бы никогда не изобретать? Прежде всего: знай своего врага.

Что такое смертоносное автономное оружие (LAW)?

Министерство обороны США определяет автономную систему вооружения как «систему вооружения, которая после активации может выбирать цели и поражать их без дальнейшего вмешательства человека-оператора».

Прочитайте также  Нераскрытая тайна исчезновения смотрителей маяка Фланнана

Многие боевые системы уже соответствуют этим критериям. Компьютеры дронов и современных ракет имеют алгоритмы, которые могут обнаруживать цели и стрелять по ним с гораздо большей точностью, чем человек-оператор. Израильский «Железный купол» — одна из нескольких систем активной защиты, которые могут поражать цели без присмотра человека.

Хотя Железный купол был разработан для противоракетной обороны, он мог случайно убить людей. Но риск считается приемлемым в международной политике, потому что «Железный купол», как правило, имеет достоверную историю защиты гражданских жизней.

Есть оружие с искусственным интеллектом, предназначенное и для нападения на людей, от роботов-часовых до беспилотников-камикадзе, использовавшихся в войне на Украине. ЗАКОНЫ уже здесь. Итак, если мы хотим повлиять на использование ПТРК, нам нужно понять историю современного оружия.

Правила войны

Международные соглашения, такие как Женевские конвенции, устанавливают правила обращения с военнопленными и гражданскими лицами во время конфликта.

 

Они являются одним из немногих инструментов, которыми мы располагаем, чтобы контролировать то, как ведутся войны. К сожалению, применение химического оружия США во Вьетнаме и Россией в Афганистане является доказательством того, что эти меры не всегда успешны.

Хуже, когда ключевые игроки отказываются регистрироваться. Международная кампания за запрещение противопехотных мин (ICBL) с 1992 года лоббирует среди политиков запрет на использование мин и кассетных боеприпасов (которые беспорядочно разбрасывают небольшие бомбы на обширной территории). В 1997 году Оттавский договор включал запрет на это оружие, который подписали 122 страны. Но США, Китай и Россия не купились.

Начиная с 2015 года, от противопехотных мин ежегодно получают ранения и погибают не менее 5000 солдат и гражданских лиц, а в 2017 году — 9440 человек. В отчете Landmine and Cluster Munition Monitor 2022 говорится:

«Потери… были тревожно высокими за последние семь лет после более чем десятилетия исторического сокращения. 2021 год не стал исключением. Эта тенденция в значительной степени является результатом усиления конфликта и заражения самодельными минами, наблюдаемыми с 2015 года. Большинство зарегистрированных жертв составляли гражданские лица, половина из которых были детьми».

Прочитайте также  Когда начнется Третья Мировая Война

Несмотря на все усилия МКЗНМ, есть свидетельства того, что и Россия, и Украина (участница Оттавского договора) используют противопехотные мины во время российского вторжения в Украину. Украина также полагалась на беспилотники для наведения артиллерийских ударов или, совсем недавно, для «атак камикадзе» на российскую инфраструктуру.

Наше будущее

А как насчет более продвинутого оружия с искусственным интеллектом? Кампания по борьбе с роботами-убийцами перечисляет девять основных проблем с ЗАКОНОМ, уделяя особое внимание отсутствию ответственности и присущей убийству дегуманизации.

Хотя эта критика справедлива, полный запрет LAW нереалистичен по двум причинам. Во-первых, как и шахты, ящик Пандоры уже открыт. Кроме того, границы между автономным оружием, LAW и роботами-убийцами настолько размыты, что их трудно различить.

Военные лидеры всегда смогут найти лазейку в формулировках запрета и внедрить роботов-убийц в качестве оборонительного автономного оружия. Они могут даже сделать это неосознанно.

В будущем мы почти наверняка увидим больше оружия с поддержкой ИИ. Но это не значит, что мы должны смотреть в другую сторону. Более конкретные и детальные запреты помогут привлечь к ответственности наших политиков, ученых и инженеров.

Например, запрещая:

ИИ «черный ящик»: системы, в которых у пользователя нет информации об алгоритме, кроме входных и выходных данных.

Ненадежный ИИ: системы, которые были плохо протестированы (например, в упомянутом ранее примере военной блокады).

И вам не нужно быть экспертом в области ИИ, чтобы иметь представление о ЗАКОНАХ. Будьте в курсе новых разработок военного ИИ. Когда вы читаете или слышите об использовании ИИ в бою, спросите себя: оправдано ли это?

Сохраняет ли жизнь мирных жителей? Если нет, обратитесь к сообществам, которые работают над контролем этих систем. Вместе у нас есть шанс не допустить, чтобы ИИ приносил больше вреда, чем пользы.

Джонатан Эрскин, аспирант, интерактивный ИИ, Бристольский университет, и Миранда Моубрей, преподаватель интерактивного ИИ, Бристольский университет


Поделитесь в вашей соцсети👇

 

Добавить комментарий