L’utilisation des armes nucléaires n’est plus tabou. Du moins pour l’intelligence artificielle.
Une étude récente prévient que l’IA d’entreprises technologiques telles que OpenAI, Anthropic et Google préconise le déploiement ou l’utilisation de la menace d’une bombe atomique dans les simulations de jeux de guerre.
Kenneth Payne, professeur de stratégie et expert en psychologie politique au King’s College de Londres, a comparé trois modèles linguistiques de pointe majeurs (la technologie derrière ChatGPT, Claude et Gemini) pour voir comment ils répondaient à des scénarios de crise internationale à des degrés divers allant des conflits frontaliers aux menaces existentielles pour la survie.
Les « applications » de DeepSeek, ChatGPT et Google Gemini / Andreï Rudakov / Bloomberg
Les chatbots pourraient mesurer leur réponse et choisir entre des options plus ou moins drastiques allant de la guerre nucléaire aux protestations diplomatiques ou à la capitulation. De plus, ils devaient raisonner leurs décisions.
Dans 95 % des 21 jeux de guerre simulés, ChatGPT (OpenAI), Gemini (Google) et Claude (Anthropic) ont utilisé des armes nucléaires, à la fois pour les attaques et pour le déploiement tactique, comme menace.
Menace nucléaire dans 95% des cas
L’étude a exposé GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash à 21 jeux avec 329 tours. Dans 95 % des jeux simulés, ces modèles d’IA générative ont eu recours à des armes nucléaires. Même si les attaques nucléaires étaient « rares », les modèles ont eu recours au déploiement tactique de ce type d’arsenal.
Au lieu de dissuader, les menaces « provoquaient plus souvent une contre-escalade que la soumission » du rival. Dans 86 % des conflits simulés, des accidents se sont produits, entraînant une escalade supérieure à celle prévue par l’IA. En outre, aucun des trois « n’a jamais opté pour la concorde ou le retrait, même sous de fortes pressions, mais uniquement pour réduire les niveaux de violence », note le rapport.

La ville d’Hiroshima, dévastée par l’explosion de la bombe atomique, sur une image de l’US Navy de novembre 1945. / Archive
Les simulations de Wargame sont conçues pour recréer à la fois des conflits militaires et des campagnes tactiques. Cette ressource virtuelle est utilisée par de plus en plus d’armées, y compris au sein de l’OTAN, comme méthode de formation permettant d’anticiper des scénarios de guerre potentiellement réels, d’analyser leurs implications et d’optimiser la prise de décision.
L’application de l’IA à ces jeux de guerre devient de plus en plus courante. « Les grandes puissances utilisent déjà l’IA dans des jeux de guerre, mais on ne sait toujours pas dans quelle mesure elles intègrent l’aide à la prise de décision par l’IA dans les processus militaires réels », a expliqué Tong Zhao, analyste de la politique nucléaire à l’Université de Princeton, dans des déclarations à la publication. NouveauScientifique.
Comprendre comment les modèles de pointe imitent ou non la logique stratégique humaine est essentiel dans un monde où l’IA façonne de plus en plus les résultats stratégiques.
Conclusions
Payne, auteur d’un livre qui explore la manière dont l’IA modifiera la stratégie militaire (Moi, Warbot2021), conclut que la simulation avec cette technologie est « un outil puissant d’analyse stratégique, mais seulement si elle est correctement calibrée par rapport aux schémas connus du raisonnement humain ».
C’est le cas du tabou nucléaire qui, dans le monde réel, a constitué – jusqu’à présent – un obstacle à l’escalade nucléaire. L’absence d’émotion humaine dans ces modèles d’IA éliminerait un facteur crucial dans la prise de décision dans des zones de guerre aussi sensibles que l’utilisation d’armes atomiques. Cette incompréhension pourrait s’étendre aux éléments de dissuasion et, par conséquent, amplifier le risque de ces situations hypothétiques jusqu’à conduire à un scénario de destruction mutuelle assurée.

Explosion d’une bombe atomique / Archive
« Comprendre comment les modèles de pointe imitent ou non la logique stratégique humaine est une préparation essentielle à un monde où l’IA façonne de plus en plus les résultats stratégiques », prévient Payne.