Армия и разведывательные структуры Израиля активно используют коммерческие продукты компаний Microsoft, Google, Amazon и OpenAI в сфере искусственного интеллекта (ИИ) и облачных вычислений для обнаружения потенциальных угроз и уничтожения боевиков радикальных движений. В том числе применение этих технологий приводит к ошибкам в выборе целей, что создает угрозы для мирного населения, показало расследование агентства Associated Press.
По данным агентства, изучившего внутренние документы компаний и побеседовавшего с действующими и бывшими израильскими военными, армия Израиля после нападения боевиков ХАМАС 7 октября 2023 года в 200 раз нарастила частотность применения технологий ИИ в военных целях. В частности, ИИ используется военными для просеивания и анализа больших объемов данных, содержащих личные сообщения, звонки, записи с камер видеонаблюдения. Технологии, как указывает агентство, позволяют обнаружить подозрительное поведение одних лиц или же нанести точечный удар по другим, чья деятельность будет расценена как непосредственная угроза безопасности.
Опрошенные военные заявили, что ИИ и облачные вычисления в ходе текущего конфликта стали "картой, меняющей правила игры", которая значительно расширила возможности Израиля. При этом официально израильская армия отказалась комментировать партнерство с западными IT-гигантами, лишь подтвердив, что действительно использует технологии ИИ для идентификации целей и разведывательных мероприятий. Microsoft и OpenAI также не стали комментировать информацию о сотрудничестве с израильскими военными. При этом обе компании за последние годы изменили свою официальную политику использования собственных коммерческих продуктов, сняв ограничения на их применение в целях обеспечения безопасности.
Associated Press отмечает, что израильские военные сотрудничали с западными IT-компаниями и до 7 октября 2023 года, но после эскалации ситуации партнерство вышло на новый уровень. Например, объем используемых военными данных на серверах Microsoft со времени атаки ХАМАС до июля 2024 года вырос в два раза до более чем 13,6 петабайт.
Бывший старший инженер по безопасности OpenAI Хайди Хлааф заявил агентству, что видит большие риски такого применения ИИ как с точки зрения развития самих технологий, так и с точки зрения рисков ошибок, которые могут повлечь за собой гибель невинных людей. "Это первое свидетельство того, как коммерческие модели ИИ напрямую применяются в боевых действиях. <…> Последствия использования технологий [ИИ] для такого типа неэтичных и нарушающих законы войн в будущем станут огромными", — добавил Хлааф.



