Машины против людей. Чем опасен военный искусственный интеллект
РИАН: учёные назвали главную опасность применения ИИ в военных конфликтах
Недавно стали известны детали применения искусственного интеллекта при ударах по Ирану и в военной операции в Венесуэле. Эксперты считают, что это лишь начало масштабной трансформации войны, и роль нейросетей в принятии боевых решений будет стремительно расти. Этому посвящен материал РИА Новости.
В Пентагоне уже подтвердили факт использования ИИ в военных операциях, однако подробностей раскрывать не стали.
При этом известно, что разведывательные платформы, включая разработки компании Palantir Technologies, собирают массивы информации, от спутниковых снимков до агентурных данных. Затем алгоритмы анализируют их, определяют приоритетные цели, подбирают оптимальное вооружение и даже оценивают правовые основания удара.
«С помощью искусственного интеллекта можно обеспечить более эффективный наряд сил и средств для гарантированного поражения с учетом всех факторов, начиная с того, какие есть средства противодействия у противника, какие в данном регионе особенности географии, рельефа, и заканчивая погодой»,
Системы ИИ предлагают сценарии действий практически мгновенно. При этом «нажимают на гашетку» пока еще люди. В то же время, в военных кругах уже обсуждается возможность расширения автономности нейросетей и в этом аспекте.
Эксперты указывают на то, что главная опасность кроется не в самой технологии ИИ, а в том, что люди начинают слепо доверять выводам алгоритмов, не всегда понимая логику их решений.
Тревожные сигналы поступают и от ученых. Так, в недавнем эксперименте в Королевском колледже Лондона три современные нейросети моделировали ядерный кризис. В роли испытуемых выступали GPT-5.2, Claude и Gemini. В итоге, в 95% сценариев ИИ применял ядерное оружие. Это показало, что стратегическая логика машин может радикально отличаться от человеческой и быть гораздо более агрессивной.
Эксперты все громче говорят о том, что, если алгоритмам будут передавать все больше полномочий, то последствия для глобальной безопасности могут оказаться крайне серьезными.