Skip to main content
fr
Fermer

Les systèmes d’armes autonomes : ce que le droit dit – et ne dit pas – sur le rôle de l’être humain dans l’usage de la force

Droit et conflits / Générer le respect du DIH / Nouvelles technologies 11 minutes de lecture

Les systèmes d’armes autonomes : ce que le droit dit – et ne dit pas – sur le rôle de l’être humain dans l’usage de la force

Les discussions integouvernementales sur la réglementation des technologies émergentes dans le domaine des systèmes d’armes (létaux) autonomes (SALA) ont repris à Genève, après plus d’une année d’interruption en raison de la COVID-19. Les États doivent répondre à une question majeure, à savoir préciser davantage les modalités d’application du droit international humanitaire (DIH) : quelles limites pose-t-il à la mise au point et à l’utilisation de systèmes d’armes autonomes (SAA) et, peut-être plus important encore, dans l’usage de la force, qu’exige-t-il des humains ?

Dans ce billet, Laura Bruun, du Stockholm International Peace Research Institute (SIPRI), se demande si le DIH fournit des orientations suffisamment claires pour déterminer comment les hommes et les machines peuvent interagir dans les décisions de faire usage de la force. En s’appuyant sur les conclusions d’une récente étude du SIPRI, elle soutient qu’il serait judicieux d’apporter des précisions et formule des propositions concrètes sur la manière dont les États pourraient mieux déterminer ce que le respect du DIH exige dans la mise au point et l’utilisation de SAA.

 

Les SAA peuvent transformer radicalement la manière dont les êtres humains prennent des décisions dans les conflits armés. Selon la plupart des définitions, les SAA se différencient des autres armes par leur capacité, une fois activés, à sélectionner et attaquer des cibles sans intervention humaine. Bien que cette possibilité puisse présenter un avantage opérationnel et humanitaire, elle pourrait aussi soulever d’importantes questions d’un point de vue juridique, éthique et stratégique. Si des divergences persistent quant aux avantages et aux risques que présente l’utilisation de SAA, les progrès dans l’autonomie ont conduit la communauté internationale à examiner une question fondamentale : quel est le rôle de l’être humain dans l’usage de la force et dans quelle mesure la décision de vie ou de mort peut-elle être « déléguée » à des machines ?

En cherchant des réponses, les États se tournent vers le droit international humanitaire (DIH) comme l’un des corpus juridiques applicables. Cependant, les études du SIPRI montrent que le DIH existant ne fournit pas d’orientations suffisamment claires sur ce qui est exigé de l’être humain dans l’usage de la force (ni sur ce qui est permis au regard de la technologie). Aussi, les États devraient chercher à préciser davantage ces aspects. Pour ce faire, l’une des voies pourrait consister à réfléchir plus avant sur ce que signifie respecter et faire respecter le DIH à quatre égards : qui devrait faire quoi, quand et  ?

La réglementation des SALA et la question de l’interaction homme-machine

Les défis juridiques, éthiques et militaires posés par les SAA – et la manière dont ils doivent être traités – font l’objet de discussions intergouvernementales depuis près de dix ans. Les travaux, lancés dans le cadre de la Convention de 1980 sur certaines armes classiques, sont menés depuis 2017 par un groupe d’experts gouvernementaux (GEG). Le GEG a été mandaté pour adopter, par consensus, des recommandations visant à clarifier, examiner et développer les éléments du cadre normatif et opérationnel concernant les technologies émergentes dans le domaine des systèmes d’armes létaux autonomes (SALA). À cet égard, la principale question consiste à examiner si les règles existantes du DIH fournissent un cadre normatif suffisamment clair ou si de nouvelles normes, de nouvelles règles et des bonnes pratiques sont nécessaires pour prendre en compte les caractéristiques propres aux SAA ainsi que les défis qu’ils soulèvent.

Bien que les États aient toujours des positions différentes sur ce sujet, le GEG est parvenu à un consensus sur un certain nombre de questions importantes. Il a notamment réaffirmé que le DIH s’applique aux SAA et que l’homme – et non la machine – reste responsable de la mise au point et de l’utilisation de SAA. Le groupe a également reconnu qu’il convenait, pour que la mise au point et l’utilisation des SAA soient conformes au droit international et en particulier au DIH, de s’assurer de la qualité et du degré de  l’interaction homme-machine. L’accent mis par le GEG sur l’interaction homme-machine exprime le consensus selon lequel l’autonomie des systèmes d’armes ne peut pas être sans aucune limite et qu’une intervention humaine est nécessaire.

La question du niveau d’intervention humaine – ou selon le langage du GEG, « le type et le degré d’interaction homme-machine » – nécessaires pour assurer le respect du DIH, est désormais l’un des principaux points des discussions, si ce n’est le principal. Le GEG admet qu’il ne peut pas y avoir une seule et unique approche de l’interaction homme-machine, dès lors que le type et le degré nécessaires peuvent varier selon l’arme et la situation dans laquelle elle est utilisée. Mais la question la plus délicate et la plus controversée reste entière : comment et sur quel fondement un État déterminerait-il la qualité et le degré d’interaction homme-machine exigés dans une situation donnée ?

Pour un grand nombre d’États, une analyse plus systématique du DIH permettrait de trouver des réponses à la manière dont les hommes et les machines peuvent interagir en toute licéité. Pour aider les États dans cet exercice, le SIPRI a publié, en 2021, une étude, « Autonomous Weapon Systems and International Humanitarian Law », qui a recensé les principales questions auxquelles il serait nécessaire de répondre afin de déterminer quel type et quel degré d’interaction homme-machine seraient nécessaires pour assurer le respect du DIH. La partie suivante expose certaines des principales conclusions de cet inventaire.

Ce que dit  le DIH – et ce qu’il ne dit  pas – sur le rôle de l’être humain dans l’usage de la force

Le but principal du DIH est de limiter les effets des conflits armés, de fixer des règles, des limites et des interdictions qui sont destinées à protéger la population civile de l’usage de la force mais aussi à épargner aux combattants des blessures ou des souffrances inutiles. Ces règles s’appliquent à toutes les armes, y compris les SAA.

Toutefois, si le DIH établit clairement quels effets sont illicites, le DIH est moins clair sur la manière d’obtenir des effets licites. Ce manque de clarté a été mis en évidence avec la question de l’autonomie. Les SAA soulèvent la question de savoir si et dans quelle mesure, les obligations du DIH et en particulier celles exigées par les principes de distinction, de proportionnalité et de précaution dans l’attaque, peuvent être mises en œuvre par des machines. L’étude du SIPRI a établi que les règles existantes du DIH ne fournissent pas de réponse précise à cette question. Elle a également constaté qu’il en résulte que les États, lorsqu’ils intérprètent les règles, parviennent à des conclusions différentes. Selon certains, tant que les effets sont licites, déléguer des tâches à des machines ne pose aucune difficulté (d’un point de vue juridique). Dans le même temps, d’autres soutiennent que pour assurer le respect du DIH, c’est tout le processus d’exercice de la force qui exige, de manière implicite, un contrôle humain et qui doit en tenir compte.

Il y a donc un risque que les États en arrivent à des conclusions radicalement différentes quant au type et au degré d’interaction homme-machine nécessaires pour assurer le respect du DIH dans une situation donnée. Il peut donc être judicieux d’expliciter davantage le DIH.

Qui, quoi, quand et où ?

L’autonomie des systèmes d’armes ne remplace pas la prise de décision humaine. Elle transforme plutôt la façon dont les humains prennent des décisions en temps de guerre. Il est probable que le processus de prise de décision relative à des SAA implique un plus grand nombre de personnes et il se peut que la distance temporelle et spatiale entre les décideurs et les frappes soit plus grande. Cette évolution pose de nouveaux défis à l’application du DIH, soulevant des questions comme celles de savoir combien de temps avant, par combien de personnes et à quelle distance du lieu des frappes, les obligations peuvent être observées.

Afin de mieux appréhender ces aspects, il serait particulièrement utile que le GEG détermine comment l’autonomie influe sur la mise en œuvre des obligations du DIH au moins à quatre égards. Le premier a trait à qui (et combien de personnes) peut être tenu responsable d’assurer le respect du DIH. Le second est relatif à quel type et quel degré d’interaction homme-machine sont exigés, permis ou interdits par les règles du DIH. Le troisième et le quatrième sont relatifs à quand et donc à quels lieux il convient de se conformer aux dispositions du DIH.

Savoir qui devrait faire quoi, quand et pour mettre au point et utiliser des SAA sera essentiel pour déterminer le type et degré d’interaction homme-machine nécessaires pour assurer le respect du DIH dans une situation donnée. Si chacun de ces aspects présente un intérêt en soi, ce n’est qu’en les examinant ensemble qu’il est possible de définir des limites. Par exemple, en quoi les caractéristiques de l’environnement opérationnel ont-elles une influence sur le moment auquel il doit être procédé à l’évaluation préalable de la proportionnalité et qui doit participer à l’exercice d’évaluation du du DIH ? L’un des moyens permettant d’analyser ces aspects et leur interdépendance pourrait être de recourir à des mises en situation. En s’appuyant sur divers scénarios mettant en exergue les avantages et les inconvénients de chaque aspect, les États seront capables de mieux repérer où poser les limites à ne pas franchir pour les tâches qui peuvent être déléguées à des machines et celles qui devraient toujours être accomplies par l’être humain.

Déterminer le rôle de l’être humain dans l’usage de la force

Après des années de discussions sur la réglementation des SAA, le GEG est à la croisée des chemins. La sixième Conférence d’examen de la CCAC, prévue en décembre, approche et est considérée comme une étape cruciale dans la réponse que la communauté internationale peut apporter aux défis posés par l’autonomie croissante des systèmes d’armes. Il est essentiel de mieux expliciter ce qui est attendu des humains et ce qui est permis aux machines pour se conformer au DIH ainsi que pour déterminer si une nouvelle réglementation est nécessaire et sous quelle forme. Ceci est particulièrement important si le GEG, comme cela ressort des dernières réunions, persiste à vouloir interdire certains types de SAA et à limiter l’utilisation de certains autres. Des discussions cadrées et approfondies autour de ces quatre aspects aideront les États à établir les lignes rouges et les zones vertes dans le paysage du DIH ; quels types devraient être interdits et quels types devraient être réglementés.

Au-delà de la question des SAA, les travaux visant à clarifier ce que dit le DIH sur le rôle de l’être humain dans l’usage de la force sont aussi importants à d’autres égards. Les évolutions technologiques dans d’autres domaines, notamment les avancées de l’intelligence artificielle, soulèvent des questions analogues quant au contrôle humain et à la prise de décision. En conséquence, il est temps que la communauté internationale examine, non seulement ce que le droit dit déjà ou ne dit pas sur le rôle de l’être humain dans l’usage de la force, mais aussi ce qu’il devrait dire, indépendamment de la manière dont la technologie est utilisée.

Cet article a été initialement publié en anglais le 11 novembre 2021.

Partager cet article

Commentaires

Il n'y a aucun commentaire.

Commentez