Dans le cadre du débat concernant les effets de l’intelligence artificielle (IA) sur les stratégies et la prise de décision militaires, l’une des questions essentielles consiste à se demander qui prend les meilleures décisions : l’être humain ou la machine ? Les partisans d’un recours plus important à l’intelligence artificielle mettent en avant l’heuristique et l’erreur humaine et affirment que les nouvelles technologies peuvent réduire les souffrances des civils grâce à un ciblage plus précis et à un plus grand respect du droit. À l’inverse, d’autres estiment qu’une prise de décision fondée sur l’IA peut être aussi mauvaise, voire pire qu’une prise de décision humaine, et que les marges d’erreur induisent des risques disproportionnés. Toutefois, ces débats ne tiennent pas compte du fait qu’il n’est peut-être pas possible que les machines reproduisent toutes les dimensions de la prise de décision humaine. En outre, nous ne voulons pas nécessairement qu’il en soit ainsi.
Dans ce billet, Erica Harper, directrice de la recherche et de l’étude des politiques à l’Académie de droit international humanitaire et des droits humains à Genève, présente les éventuelles implications d’une prise de décision militaire fondée sur l’IA en ce qui concerne le déclenchement d’une guerre, son déroulement et la consolidation de la paix. Elle souligne le fait que si l’utilisation de l’IA peut être à l’origine d’externalités positives, notamment en matière de prévention et de réduction des dommages, les risques sont très importants. Parmi ces derniers, figure la possibilité que s’ouvre une nouvelle ère de guerre opportuniste, que la banalisation de la violence soit généralisée et que des occasions de rétablir la paix soient manquées. Un tel potentiel doit être évalué au regard de l’état actuel de fragilité du multilatéralisme et pris en compte lors de l’élaboration des politiques concernant l’IA tant au niveau régional qu’international.
Les nouvelles technologies transforment la nature des guerres modernes. L’apport possible de l’IA pour mettre au point une stratégie militaire et prendre une décision au combat constitue une question d’un intérêt particulier. Ce débat a jusqu’à présent surtout porté sur les systèmes d’armement ainsi que sur les risques et les enjeux associés. La question de savoir si l’intégration de l’IA dans la prise de décision militaire modifiera ou éliminera les rôles dévolus jusqu’à présent aux êtres humains constitue un sujet moins étudié, quoique plus complexe. L’IA peut apporter, par exemple, des solutions pour surmonter les limites cognitives et réduire la défaillance humaine. Il ne fait aucun doute que des résultats positifs peuvent en découler, notamment une réduction des dommages causés aux civils et un plus grand respect du droit international humanitaire (DIH). Toutefois, ces possibilités s’accompagnent aussi de risques et de défis nouveaux. En premier lieu, dans la mesure où les conflits sont un phénomène intrinsèquement humain, l’IA va-t-elle profondément transformer la manière dont les conflits armés sont déclenchés, menés et résolus ?
Influence sur le calcul de l’entrée en guerre
Un premier scénario à envisager consiste à se demander si des systèmes d’aide à la décision fondés sur l’IA pourraient influer sur la décision d’un État d’engager une action militaire contre un autre pays ou un groupe national. On considère généralement que ce « calcul de l’entrée en guerre » prend en compte des normes à la fois juridiques et politiques. L’un des principes fondamentaux du droit international est l’interdiction de recourir à la menace ou à l’emploi de la force, comme énoncé au paragraphe 4 de l’article 2 de la Charte des Nations Unies, les articles 51 et 42 constituant des exceptions à ce principe, respectivement dans des situations de légitime défense et de maintien ou de rétablissement de la paix et de la sécurité internationales. Des facteurs non juridiques influent aussi sur la prise de décision, notamment le risque d’atteinte à la réputation, l’opinion publique à l’égard de la guerre, les réactions possibles des alliés et des non-alliés, les pertes à prévoir, etc.
Les systèmes fondés sur l’IA pourraient-ils changer la manière dont ce calcul est effectué et mis en œuvre ? Les systèmes d’IA pourraient-ils, par exemple, être mis à contribution par des belligérants potentiels pour évaluer les probabilités d’une victoire militaire ou pour formuler une stratégie militaire permettant d’atteindre cet objectif ?
On pourrait affirmer que cela réduirait la probabilité que des États s’engagent dans des guerres « perdues d’avance », ou dans des guerres motivées par le besoin de sauver la face ou de se venger. L’invasion du Koweït par l’Irak en 1990, par exemple, a été déclenchée, du moins en partie, par le refus du Koweït d’effacer la dette de 14 milliards de dollars accumulée pendant la guerre Iran-Irak, et par l’obsession ancienne de Saddam Hussein concernant le statut des îles Warbah et de Bubiyan (que l’Irak estimait avoir été injustement annexées pendant la période du protectorat du Royaume-Uni sur le Koweït de 1899 à 1961). Si les systèmes d’aide à la décision fondés sur l’IA peuvent prévenir de tels conflits, alors les retombées pour les civils sont assurément positives. Toutefois, des scénarios nettement plus dystopiques peuvent être envisagés. Pour des États animés d’ambitions impérialistes ou expansionnistes, un tel recours à l’IA pourrait devenir un instrument redoutable. Dans le pire des cas, les systèmes d’IA pourraient donner naissance à une nouvelle ère de la guerre dans laquelle les systèmes informatiques seraient utilisés pour repérer les endroits où des victoires sont possibles, favorisant l’intrusion dans d’autres territoires, l’élimination de groupes d’oppositions et des guerres préventives.
L’IA en situation de conflit
Une deuxième question consiste à se demander si l’IA aura une incidence sur la manière dont les décisions militaires sont prises en situation de combat. Tel sera en effet probablement le cas si ces systèmes permettent aux soldats de rester loin du champ de bataille, c’est-à-dire s’ils leur permettent de prendre plus facilement des mesures létales. De fait, la guerre exige des soldats qu’ils surmontent leur aversion, profondément enracinée, pour l’acte de tuer d’autres êtres humains. Mise en évidence pour la première fois lors de la Seconde Guerre mondiale, cette tendance est si puissante que les militaires prennent des mesures proactives pour désensibiliser les soldats, généralement au moyen de l’instruction par simulation, de récits déshumanisants et en exagérant la menace que représente l’ennemi. Nombre de progrès en ce qui concerne la technologie des drones et les systèmes d’armes autonomes peuvent être interprétés comme contribuant à ces objectifs. Dans la mesure où de tels dispositifs éloignent les soldats du champ de bataille, les effets sensoriels les plus éprouvants liés à l’acte de tuer, tels que les bruits et les odeurs, sont ainsi éliminés. D’autres fonctionnalités comme les images pixellisées des cibles et les gâchettes intelligentes ou faciles à presser vont dans le même sens. Bien que ce phénomène ait été moins étudié, le fait que l’IA réduise la prise de décision d’un soldat pourrait avoir des répercussions beaucoup plus importantes.
Il ne s’agit pas de dire que toutes les conséquences seraient négatives. Les partisans du recours à l’IA pour la prise de décision militaire soulignent souvent le fait que, par rapport aux ordinateurs, les êtres humains ne sont capables de retenir et de traiter qu’une quantité extrêmement limitée d’informations. Ils prévoient des innovations telles que des conseillers numériques fondés sur l’IA, capables de stocker, d’analyser et d’interpréter des données à une échelle et à un rythme bien supérieurs à ceux des équipes d’experts militaires les plus expérimentées. D’un point de vue stratégique, toute accélération dans la prise de décision, l’action et la réaction procure un avantage opérationnel indéniable. Ces avantages pourraient également concerner le respect du droit. Des systèmes capables d’associer une analyse fine de la situation sur le terrain à l’ensemble des règles, de la jurisprudence et de la doctrine du droit international humanitaire permettraient des contrôles de la proportionnalité et des choix de cibles beaucoup plus précis.
De la guerre à la paix : une part de défaillance humaine n’est peut-être pas inutile
Un dernier scénario à envisager concerne le rôle de l’être humain par rapport à celui des systèmes d’aide à la prise de décision fondés sur l’IA pour mettre fin à une guerre. Bien que cela puisse paraître contre-intuitif, la grande majorité des conflits se terminent non pas par une victoire ou une défaite militaire, mais par une solution négociée. Lorsqu’on analyse ces processus, on constate que la place centrale du jugement humain, de l’influence et des émotions humaines est irremplaçable. Les rôles joués par Nelson Mandela (Afrique du Sud), par Carlos Filipe Ximenes Belo et José Ramos Horta (Timor-Oriental), ainsi que par les membres du Quatuor pour le dialogue national (Tunisie) en constituent des exemples parmi d’autres. Les systèmes d’IA susceptibles de fournir une aide à la décision équivalente à celle de ces leaders d’opinion ne seront pas créés avant longtemps, si tant est que cela soit possible.
Des moments critiques et des événements imprévus peuvent aussi influer sur la fin d’une guerre. Le conflit de trente ans entre l’Indonésie et le Mouvement de libération d’Atje (GAM), en constitue un bon exemple. En mai 2004, après une année de loi martiale, l’armée indonésienne avait acquis un net avantage militaire et nombre d’analystes estimaient qu’elle était en passe de remporter la victoire. Toutefois, le 26 décembre 2004, un séisme de magnitude 9,1 frappe la côte de Sumatra, provoquant un tsunami qui cause la mort d’un quart de la population d’Aceh. Au lieu d’utiliser cette catastrophe naturelle à son avantage, le gouvernement indonésien ouvre, contre toute attente, l’Aceh à 195 organisations humanitaires internationales, autorise l’aide militaire de 16 armées étrangères et redéploie la moitié de ses forces de défense, constituées de 40 000 soldats, à des missions humanitaires. Le GAM réagit en annonçant une cessation immédiate des hostilités et, en l’espace de 10 mois, un traité de paix est signé avec l’Indonésie accordant un statut spécial d’autonomie à l’Aceh.
Attribuer ces événements au tsunami constituerait une simplification exagérée, mais la perte de nombreuses vies humaines, la générosité des États membres et l’interprétation religieuse de cette catastrophe, que partageaient les belligérants, ont fortement influé sur la conduite de l’ensemble des parties prenantes. Il est difficile d’imaginer comment un système d’aide à la prise de décision fondé sur l’IA pourrait surpasser l’humain dans ce type de circonstances. De plus, cet exemple démontre que la guerre est un processus qui dépend beaucoup des êtres humains et où la logique des algorithmes n’a pas nécessairement sa place. Des occasions de rétablir paix pourraient ainsi être manquées si les systèmes de prise de décision militaire fondés sur l’IA devenaient la norme.
Remarques pour conclure : pourquoi les risques et les opportunités de l’utilisation de l’IA doivent être contextualisés
Ce billet se proposait d’interroger l’usage de l’IA en matière de prise de décision militaire et ses effets potentiels sur la manière dont les guerres sont déclenchées, menées et résolues, en particulier si cela implique une réduction du rôle de l’être humain dans le processus de prise de décision. Les risques présentés se concrétiseront-ils, inaugurant une ère plus dangereuse et moins prévisible de conflits militaires ? Les possibilités de l’IA seront-elles exploitées, favorisant des approches plus rationnelles qui limitent les atteintes aux civils ? La réponse à ces questions dépendra largement de la manière dont les forces armées conçoivent le succès. Si la réussite consiste à éviter la guerre et, en cas de guerre, à mieux respecter le droit international humanitaire, alors l’intégration de l’IA dans la prise de décision militaire peut aboutir à des résultats positifs. En revanche, si par « réussite », on entend simplement une prise de décision militaire plus rapide, alors les risques potentiels associés à l’IA seront accrus.
Il est important de ne pas envisager ces scénarios de façon binaire, ni comme s’excluant mutuellement. La définition de ce que l’on entend par « réussite » variera selon les États et les circonstances. Il est néanmoins impératif d’engager une réflexion sur les tendances à venir. En effet, si le rythme soutenu des progrès technologiques nous a appris quelque chose, c’est bien qu’il est essentiel d’anticiper pour façonner l’avenir que nous voulons. Ces discussions devraient réserver une place centrale à l’état actuel du système multilatéral. Comme l’a noté le secrétaire général des Nations Unies, Antonio Guterres, lors de son discours devant l’Assemblée générale des Nations Unies en 2023, le monde semble évoluer vers un ordre multipolaire, marqué par des tensions géopolitiques accrues, l’autoritarisme et l’impunité. De nombreux experts prévoient que cette situation conduise à des bouleversements dans les mécanismes actuels visant à poursuivre les auteurs de violations et à une toile « plus fine » du droit international. Si tel est le cas, la valeur normative du respect du droit international humanitaire pourrait être de plus en plus éclipsée par la seule recherche de l’efficacité militaire. Cette perspective suggère qu’une approche prudente du développement des applications militaires fondées sur l’IA et leur réglementation est justifiée, mais aussi que le renforcement du multilatéralisme est essentiel pour atténuer les risques que posent les technologies militaires numériques.
Cet article a été initialement publié en anglais le 26 septembre 2024. Il a été traduit par Yoël Nguema Ebang, en Master 1 de Traduction spécialisée multilingue de l’Université de Grenoble Alpes, en France.
Voir aussi :
- Ruben Stewart, Georgia Hinds, Les algorithmes de la guerre : le recours à l’IA pour la prise de décision dans les conflits armés, 22 février 2024


