Obserwatorzy piszący dla Foreign Affairs ostrzegają, że szybki postęp sztucznej inteligencji staje się bezpośrednim zagrożeniem dla bezpieczeństwa nuklearnego. Ich zdaniem deepfake’i generowane przez SI mogą pchnąć przywódców państw posiadających broń jądrową do podjęcia decyzji o uderzeniu, a jeszcze groźniejszym scenariuszem byłaby sytuacja, w której system SI otrzymałby uprawnienia do decydowania o użyciu broni nuklearnej. Autorzy przekonują, że gwałtowne rozprzestrzenianie się sztucznej inteligencji już nasiliło ryzyka dla stabilności jądrowej.

Artykuł przypomina, że w grudniu tego roku Philip Schellekens, główny ekonomista biura Programu Narodów Zjednoczonych ds. Rozwoju (UNDP) w regionie Azji i Pacyfiku, stwierdził, iż wykorzystanie SI w sferze militarnej może nabrać wymiaru egzystencjalnego i prowadzić do masowych ofiar. Podkreślił, że państwa mają obowiązek regulować takie technologie, i wyraził obawy przed ewentualnym przekazaniem maszynom decyzji o użyciu broni jądrowej.

Foreign Affairs zwraca też uwagę, że narzędzia oparte na SI znacząco ułatwiają tworzenie deepfake’ów — niezwykle realistycznych fałszywych nagrań wideo, obrazów oraz dźwięku, wykorzystywanych do szerzenia nieprawdziwych informacji o osobach i wydarzeniach. Zdaniem autorów to narzędzie jest skrajnie niebezpieczne: takie fałszerstwa mogą posłużyć do stworzenia pretekstu do wojny, podbicia poparcia społecznego dla konfliktu albo zasiania chaosu i niepokojów.