Израильский удар по Газе. Фото: AP Photo / Fatima Shbair

Израильский удар по Газе. Фото: AP Photo / Fatima Shbair

Статью об этой системе, которая известна как «Евангелие» и значительно повлияла на поиск допустимых целей для атак, пересказывает издание Могилев.media.

Свою первую войну с использованием искусственного интеллекта Израиль проводил еще в 2021 году. Это была 11-дневная война, в ходе которой представители израильской армии заявили об активном использовании машинного обучения и передовых вычислений. По итогам конфликта в мае 2021 года Израиль заявил о небывалом успехе и уничтожении военной инфраструктуры ХАМАС.

Современная война между Израилем и ХАМАС дает ЦАХАЛ беспрецедентно возрастающие возможности для использования передовых военных технологий на театре боевых действий. Британское издание The Guardian собрало и проанализировало подробности об использовании израильтянами системы искусственного интеллекта под названием «Хабсора», или «Евангелие» — по-русски.

До 100 целей в день

Секретный отдел администрации (обнаружения и назначения) целей для нанесения ударов был создан в ЦАХАЛ в 2019 году при разведывательном управлении. В кратком заявлении на веб-сайте ЦАХАЛа утверждалось, что в войне против ХАМАС он использует систему на основе искусственного интеллекта, чтобы «обнаруживать цели в быстром темпе».

ЦАХАЛ заявил, что «благодаря быстрому и автоматическому извлечению интеллектуальных данных», Евангелие дало рекомендации по таргетингу для своих исследователей «с целью полного совпадения между рекомендациями машины и идентификацией, проведенной человеком».

Многие источники, знакомые с процессами целеуказания ЦАХАЛа, подтвердили существование механизированного алгоритма, заявив, что он использовался для создания автоматизированных рекомендаций для нападения на цели — такие, как частные дома лиц, подозреваемых в деятельности в группировках ХАМАС или Исламский джихад.

Авив Кахави, занимавший тогда пост главы Армии обороны Израиля, заявил, что новое подразделение, это дивизия, «оснащенная возможностями искусственного интеллекта» и включающая в себя сотни офицеров и солдат. В интервью, опубликованном перед текущей войной, он сказал, что это «машина, которая производит огромные объемы данных более эффективно, чем любой человек, и превращает их в цели для удара». По словам Кахави, «как только эта машина была активирована» во время 11-дневной войны Израиля с ХАМАС в мае 2021 года, она создавала 100 целей в день.

Теперь — независимо от ранга

Новая дивизия с искусственным интеллектом была создана для решения хронической проблемы ЦАХАЛа. В прежних операциях в Газе в израильской армии нередко просто не хватало целей для нанесения ударов, поскольку высокопоставленные чиновники ХАМАС исчезали в тоннелях в начале любого нового наступления.

Как сообщают источники издания, такие системы, как Евангелие, позволили ЦАХАЛу выявлять и атаковать гораздо большую группу младших оперативников.

Один чиновник, который работал над принятием решений о целеуказании в предыдущих операциях в Газе, сказал, что ЦАХАЛ ранее не нападал на дома младших членов ХАМАС. И это изменилось в отношении нынешнего конфликта — теперь дома подозреваемых активистов ХАМАС становятся мишенью независимо от ранга.

Согласно данным, опубликованным ЦАХАЛом в ноябре, в течение первых 35 дней войны Израиль атаковал 15 000 объектов в Газе, что значительно выше, чем в предыдущих военных операциях на этой густонаселенной прибрежной территории. Для сравнения, в войне 2014 года, длившейся 51 день, ЦАХАЛ разбомбил от 5000 до 6000 целей.

«Это действительно как фабрика»

Источники, знакомые с тем, как системы на основе искусственного интеллекта были интегрированы в операции ЦАХАЛа, сказали, что такие инструменты значительно ускорили процесс создания цели.

— Мы готовим мишени автоматически и работаем в соответствии с контрольным списком. — сообщил источник, ранее работавший в целевом отделе, изданию +972/Local Call. — Это действительно как фабрика. Мы работаем быстро и нет времени вникать в цель. Предполагается, что нас оценивают по тому, сколько целей нам удалось создать.

В кратком заявлении ЦАХАЛа о деятельности дивизии по целеуказанию высокопоставленный чиновник сказал, что подразделение «производит точные атаки на инфраструктуру, связанную с ХАМАС, нанося при этом большой ущерб противнику и минимальный ущерб лицам, не участвующим в боевых действиях».

Бывший высокопоставленный израильский военный источник рассказал Guardian, что оперативники используют «очень точное» измерение скорости гражданских лиц, которые эвакуируются из здания незадолго до удара. «Мы используем алгоритм, чтобы оценить, сколько мирных жителей осталось. Он дает нам зеленый, желтый, красный, как сигнал светофора».

Однако эксперты в области искусственного интеллекта и вооруженных конфликтов, которые говорили с Guardian, заявили, что скептически относятся к утверждениям, что системы на основе искусственного интеллекта уменьшают ущерб гражданскому населению, поощряя более точное нацеливание.

«Посмотрите на физический ландшафт Газы, — сказал Ричард Мойес, исследователь, возглавляющий группу Article 36, которая борется за снижение ущерба от оружия. — Мы наблюдаем повсеместное разрушение городской территории с помощью тяжелого взрывного оружия, поэтому заявления о достоверности и ограниченности применения силы не подтверждаются фактами.

Фото: Maxar Technologies

Другой источник сообщил изданию, что Евангелие позволило ЦАХАЛу запустить «фабрику массовых убийств», в которой «акцент делается на количестве, а не на качестве». Человеческий глаз, по его словам, «будет осматривать цели перед каждой атакой, но ему не приходится тратить на это много времени».

У некоторых экспертов, исследующих искусственный интеллект и международное гуманитарное право, такое ускорение вызывает ряд проблем. Доктор Марта Бо, научный сотрудник Стокгольмского международного института исследования проблем мира, сказала, что даже если «люди находятся в курсе», существует риск того, что у них возникнет «склонность к автоматизации» и «чрезмерная зависимость от системы, оказывающей слишком большое влияние на сложные человеческие решения».

Мойес из Article 36 сказал, что, опираясь на такие инструменты, как Евангелие, командирам «передается список целей, созданный компьютером», и они «необязательно знают, как этот список был создан, или имеют возможность адекватно анализировать и ставить под сомнение рекомендации по таргетингу».

«Существует опасность, — добавил он, — что, когда люди начинают полагаться на эти системы, они становятся винтиками в механизированном процессе и теряют способность разумно рассматривать риск нанесения вреда гражданскому населению».

Читайте также:

ЦАХАЛ приказывает жителям северных и южных районов Газы эвакуироваться

Перемирие между Израилем и ХАМАС закончилось. ЦАХАЛ возобновил боевые действия

Израиль договорился об освобождении 50 заложников в обмен на перемирие в Газе

Клас
11
Панылы сорам
3
Ха-ха
0
Ого
4
Сумна
3
Абуральна
2