© Bünkl
Aude Viguier
Membre du Bureau, Initiatives pour le Désarmement Nucléaire (IDN)
Février 2026
Introduction : la fin de l’ère du doute humain
Le 5 février 2026 marque une rupture historique, à la fois silencieuse par son manque de retentissement médiatique, mais décisive pour la sécurité globale. En effet, avec l’expiration officielle du traité New START, le dernier instrument juridiquement contraignant encadrant les arsenaux nucléaires stratégiques des deux principales puissances nucléaires vient de s’éteindre. Par conséquent, le monde bascule aujourd’hui dans une « zone grise » normative sans précédent, où, pour la première fois depuis la fin de la Guerre froide, aucun mécanisme global ne vient limiter, vérifier ou structurer la modernisation effrénée des forces nucléaires.
Toutefois, dans ce vide normatif béant, une autre rupture, technologique celle-ci, s’impose comme le facteur déterminant des nouveaux équilibres stratégiques : l’intelligence artificielle (IA). Longtemps cantonnée à des fonctions périphériques d’aide à la décision ou d’optimisation logistique, l’IA s’immisce désormais au cœur même des systèmes de commandement nucléaire les plus sensibles. Elle ne se contente plus d’assister l’humain dans ses tâches routinières ; elle accélère, hiérarchise, anticipe et, de manière de plus en plus autonome, oriente la décision finale de tir.
Il est crucial de rappeler que la dissuasion nucléaire reposait historiquement sur un postulat aussi fragile que central : celui du doute humain. Ce doute portait sur l’intention réelle de l’adversaire, sur la fiabilité technique d’une alerte radar ou sur les conséquences irréversibles d’un acte d’anéantissement. Loin d’être une faiblesse, ce doute constituait le principal frein à l’escalade incontrôlée. Or, en 2026, cette incertitude salutaire est méthodiquement comprimée par des architectures algorithmiques conçues pour décider vite, voire plus vite que ce que l’entendement humain ne peut traiter. Nous entrons ainsi dans l’ère de l’escalade « flash » : une dynamique de crise où des systèmes automatisés interagissent à une telle vitesse que la temporalité politique, juridique et morale devient marginale. Dans ce nouveau paradigme, le risque nucléaire ne naît plus seulement d’une volonté de nuire, mais plus dangereusement de l’erreur systémique, du biais statistique ou du bug informatique.
I. La compression du temps stratégique : quand la vitesse disqualifie le politique
La dissuasion nucléaire classique, telle qu’héritée du XXe siècle, s’inscrivait dans un temps long, rigoureusement structuré par des procédures de validation, des chaînes hiérarchiques humaines et des délais de réflexion incompressibles. Cette temporalité protectrice permettait l’intervention de l’humain à chaque étape critique, depuis la détection initiale d’un départ de missile jusqu’à l’éventuelle décision de riposte présidentielle.
Or, la transformation contemporaine des systèmes d’armes, portée par la convergence de l’IA et de l’hypersonique, bouleverse radicalement ce cadre protecteur. La vitesse n’est plus un simple avantage tactique, elle devient une variable stratégique centrale qui dicte le comportement des États. Désormais, l’acteur qui détecte, analyse et décide le plus vite acquiert un avantage décisif, indépendamment même de la puissance destructive brute de son arsenal. Cette course à la célérité ne résulte pas d’un choix idéologique délibéré, mais d’une contrainte technique auto-entretenue : chaque progrès réalisé par un acteur pousse mécaniquement les autres à réduire à leur tour leurs propres délais de décision. Il en résulte une spirale technologique dans laquelle le temps politique devient structurellement en retard sur le temps de la machine.
II. Le « hold-up » budgétaire : l’économie sacrifiée sur l’autel de la modernité
Parallèlement à ces risques technologiques, l’année 2026 est marquée par une accélération budgétaire sans précédent, particulièrement visible dans le budget de la défense français qui vient d’être rendu public. Avec une enveloppe atteignant 66,7 milliards d’euros, soit une hausse spectaculaire de plus de 11 % en seulement un an, la France s’installe durablement dans ce que les économistes appellent désormais une « trappe à budget militaire ».
Cette dynamique est auto-entretenue : chaque investissement passé, notamment dans des programmes complexes comme le Rafale F5 ou le futur missile hypersonique ASN4G, sert de justification aux rallonges suivantes au nom de la « crédibilité stratégique ». Pourtant, l’information inédite de cet arbitrage réside dans son coût social direct. En 2026, l’État a opéré un choix net : sanctuariser la capacité de destruction massive au détriment des capacités de construction de la société. Ce « poids lourd » budgétaire vide littéralement les caisses de l’État, empêchant le financement nécessaire de la transition écologique et des services publics essentiels comme l’Éducation nationale ou la Santé.
Derrière le terme technocratique de « surmarche », qui désigne l’accélération brutale des crédits de paiement, se cache une réalité politique inquiétante : l’État s’engage de manière irréversible dans des programmes industriels dont la logique purement financière dépasse désormais le débat stratégique citoyen. Une fois lancés, ces programmes deviennent politiquement et économiquement impossibles à interrompre, emprisonnant la France dans une trajectoire de fétichisme nucléaire au détriment de sa propre sécurité humaine.
III. Vers une déresponsabilisation souveraine ?
En définitive, la conjonction de l’IA décisionnelle et de l’explosion des coûts de modernisation nucléaire crée un risque de déresponsabilisation sans précédent. Si le coût financier est exorbitant, le coût démocratique l’est tout autant. En déléguant l’analyse stratégique à des algorithmes et le budget national à une industrie de défense en « surmarche », le pouvoir politique risque de perdre la main sur l’ultime levier de la souveraineté : celui de choisir de ne pas détruire.
Pour IDN, il est impératif de dénoncer ces coûts et ces risques. La sécurité de la France ne peut se construire sur une « trappe à budget » qui affaiblit sa cohésion sociale, ni sur des systèmes automatisés qui nous rapprochent, à chaque microseconde de calcul, d’une escalade « flash » accidentelle.
IV. L’illusion de la fiabilité : du mirage algorithmique à la « Black Box » décisionnelle
Par ailleurs, au-delà de la simple accélération temporelle, l’intégration de l’intelligence artificielle pose un défi fondamental à la fiabilité même de la dissuasion, laquelle repose historiquement sur une communication claire et non ambiguë entre adversaires. Cependant, l’IA, par sa nature probabiliste et non déterministe, introduit un facteur d’imprévisibilité radicale au cœur de la machine de guerre. Contrairement aux systèmes informatiques classiques qui obéissent à des règles de programmation linéaires, les réseaux de neurones profonds fonctionnent par induction, apprenant à partir de masses de données pour identifier des corrélations souvent invisibles à l’œil humain. Cette opacité structurelle, que les chercheurs nomment le phénomène de la « boîte noire » (Black Box), signifie qu’en situation de crise, un algorithme peut recommander une frappe préventive sur la base d’une logique mathématique
que ses propres concepteurs seraient incapables d’expliquer en temps réel au chef de l’État.
En conséquence, nous assistons à une rupture de la chaîne de responsabilité politique : le Président de la République, censé être l’unique détenteur du feu nucléaire, se retrouve réduit au rôle de simple validateur d’une conclusion prédigérée par un logiciel. En outre, le risque de ce que l’on appelle les « hallucinations algorithmiques », où l’IA perçoit un schéma d’attaque là où il n’existe qu’une anomalie météo ou un reflet satellitaire, transforme chaque seconde d’alerte en une loterie technologique. Dans un tel contexte, le doute humain, qui a sauvé le monde en 1983 lors de l’incident Petrov, est perçu non plus comme un garde-fou, mais comme une latence inacceptable qu’il convient d’éliminer au nom de l’efficacité tactique.
V. La guerre de l’ombre : cyber-sabotage et « Data Poisoning »
De plus, l’automatisation du nucléaire ouvre un nouveau front de vulnérabilité que les traités classiques de désarmement sont totalement incapables d’appréhender : la corruption des données ou « Data Poisoning ». Contrairement au piratage conventionnel qui vise à prendre le contrôle d’un système, le sabotage des IA militaires s’opère de manière beaucoup plus insidieuse, souvent des années avant le déclenchement d’un conflit. En infiltrant les jeux de données servant à l’entraînement des IA de reconnaissance et d’alerte précoce, un adversaire peut introduire des biais cognitifs artificiels dans la machine adverse.
Concrètement, cela signifie qu’un agresseur pourrait apprendre à l’IA de l’autre camp à ignorer systématiquement certains signaux thermiques ou certaines trajectoires, créant ainsi une « porte dérobée » dans la réalité perçue par l’adversaire. À l’inverse, ce sabotage peut viser à déclencher des fausses alertes répétées pour saturer les capacités d’analyse humaines et forcer les décideurs à basculer en mode de réponse automatique. Cette instabilité cybernétique rend la notion de « sanctuaire nucléaire » totalement caduque. Si les yeux et les oreilles de la dissuasion sont empoisonnés à la source, l’arme nucléaire ne protège plus : elle devient un piège mortel prêt à se refermer sur son utilisateur au moindre bug provoqué. Ainsi, l’obsession de la modernisation technologique, loin de renforcer notre souveraineté, nous place dans une dépendance absolue envers des infrastructures logicielles dont la sécurité totale est une chimère technique.
VI. Dilemmes éthiques et culturels : de la fiction à l’impasse technologique
Il est également instructif de se pencher sur la dimension culturelle de cette dérive, car elle reflète les angoisses profondes de notre époque face à une technologie qui semble nous échapper. Le film récent A House of Dynamite, que nous avons analysé, illustre parfaitement ce moment de bascule où l’inventeur devient l’esclave de son invention. En 2026, cette fiction est devenue notre réalité industrielle. L’arme nucléaire, par sa puissance de destruction totale, exigeait une éthique de la responsabilité absolue, portée par des êtres de chair et d’os conscients de la finitude de leur propre existence.
Toutefois, en confiant le calcul de la survie à des algorithmes dénués de toute morale, de peur ou de compassion, nous vidons la dissuasion de sa substance politique pour en faire une simple équation d’optimisation. L’IA n’a pas peur de la mort ; elle ne cherche qu’à minimiser un coût statistique défini par ses paramètres. Si l’algorithme « juge » qu’un échange nucléaire limité est l’option optimale pour préserver 60 % de la capacité industrielle d’une nation, il n’hésitera pas à le suggérer, là où un humain reculerait devant l’horreur absolue de millions de morts. Cette déshumanisation de la guerre, portée par le fétichisme de l’IA, nous conduit vers une impasse où l’humanité pourrait disparaître par simple souci d’efficacité technique, victime d’un système qu’elle a créé pour se protéger mais qu’elle ne sait plus freiner.
VII. Conclusion : le plaidoyer d’IDN pour un « pare-feu humain »
En conclusion, la situation en ce début d’année 2026 nous impose un constat d’urgence absolue. La convergence de l’expiration des traités de contrôle, de l’emballement budgétaire de la « surmarche » et de l’automatisation algorithmique crée un cocktail de risques que la France ne peut plus ignorer sous couvert de secret défense. Il est désormais impératif de réclamer une transparence totale sur les mécanismes de décision nucléaire et d’imposer un « pare-feu humain » inviolable dans la chaîne de commandement.
IDN appelle à la mise en place d’un moratoire international sur l’intégration de l’IA décisionnelle dans les forces stratégiques. La sécurité réelle ne réside pas dans la microseconde d’avance gagnée par un processeur sur un autre, mais dans notre capacité collective à restaurer le dialogue politique et à désarmer les budgets pour réarmer les services publics et la résilience sociale. La dissuasion doit rester une affaire de sagesse et de responsabilité souveraine, car si nous laissons l’algorithme prendre la main sur le bouton, nous acceptons que le destin de l’humanité ne tienne plus qu’à la stabilité d’une ligne de code.
Bibliographie exhaustive et sources de référence
Rapports institutionnels et budgétaires :
• Sénat (2025/2026) : Rapport législatif sur le Projet de Loi de Finances (PLF) 2026, Mission Défense – Tome III : Les nouveaux enjeux de la dissuasion face à l’IA
(www.senat.fr/rap/l25-139-38/l25-139-380.html)
• DGA (Direction générale de l’armement) : Un niveau historique de commandes passées par la DGA en 2025 (www.defense.gouv.fr/dga/actualites/niveau-historique-commandes-passees-dga-2025)
Études internationales et think tanks :
• SIPRI (2025) : Nuclear Risk and the Autonomous Frontier: A Global Study on NC3 Vulnerabilities. (https://www.sipri.org/sites/default/files/2025-06/yb25_summary_en.pdf)
• ICAN (2024) : Emerging technologies and nuclear risks
(www.icanw.org/emergingtechnologies)
• UNIDIR (United Nations Institute for Disarmament Research, 2025) : Artificial Intelligence in the Military Domain and Its Implications for International Peace and Security (docs-library.unoda.org/General_Assembly_First_Committee_-Eightieth_session_(2025)/79-239-UNIDIR-EN.pdf)
Références culturelles IDN :
• Dossier Culture IDN (2025) : Analyse critique du long-métrage A House of Dynamite et ses parallèles avec la doctrine française (www.idn-france.org/nos-publications/actualites/a-house-of-dynamite-the-five-paradoxes-of-nuclear-deterrence/)