L’usage militaire de l’intelligence artificielle (IA) se réduit souvent à l’image du « robot-tueur ». Or, l’utilisation de l’IA concerne d’autres champs, moins connus, comme celui de l’aide à la prise de décision. Les défenseurs de ces nouvelles technologies avancent deux arguments : réduire l’impact des opérations militaires sur les civils, et accélérer l’exécution opérationnelle. Un récent article du blog Droit & Politiques humanitaires du CICR en offre une analyse critique.

Qu’est-ce déjà qu’un système d’aide à la décision fondé sur l’intelligence artificielle ? Il s’agit de logiciels qui permettent d’afficher, de synthétiser et/ou d’analyser des données. Le droit international humanitaire stipule en effet que l’exécution de toute opération militaire doit être fondée sur l’évaluation d’informations de toute origine, sur le moment. Ces systèmes peuvent, par exemple, faciliter l’identification d’objectifs militaires, évaluer des types de comportement, et dans certains cas, formuler des recommandations – voire des prédictions quant à des actions ou des situations futures.

Principe de précaution 1 : le « biais d’automatisation »

Ruben Stewart, conseiller CICR sur les forces et groupes armés, et Georgia Hinds, conseillère juridique CICR, mettent en garde dans l’article sur le « biais d’automatisation », soit « la tendance humaine à ne pas faire d’examen critique des diagnostics générés par un système ou à s’abstenir de rechercher des informations contraires – en particulier dans les situations d’urgence. » Ce « biais » peut bien entendu avoir une conséquence adverse sur le terrain, notamment sur la population civile, si les résultats du progamme s’avèrent inexacts.

Principe de précaution 2 : prendre le temps

Concernant le deuxième argument – accélérer le processus décisionnel – les rédacteurs de l’article citent avec humour une remarque attribuée à Napoléon : « habillez-moi lentement, je suis pressé ». En somme, même si la rapidité d’exécution gagnée par l’utilisation de l’IA permettrait un avantage militaire sur son adversaire, il demeure vital selon les auteurs de « ralentir la prise de décision » afin d’avoir une vision élargie de la situation, de mieux appréhender la situation, et également d’envisager plus d’options.

Lire l’article : les algorithmes de la guerre : le recours à l’intelligence artificielle pour la prise de décision dans les conflits armés