Los debates relativos a la regulación de las opciones que realizan los Estados en la conducción de las hostilidades suelen estar limitados al uso de armas… Sin embargo, nuestra noción sobre las armas es anacrónica. Las nuevas tecnologías –en particular las que cuentan con algoritmos de inteligencia artificial (IA) incorporados, aunque no lleven armas– están transformando considerablemente la guerra contemporánea. No obstante, sistemáticamente se subestima la influencia indirecta de estas tecnologías en las decisiones bélicas.
En este artículo, Klaudia Klonowska, investigadora del proyecto DILEMA, del Instituto Asser, insta a un cambio drástico en lo que consideramos una herramienta importante de la guerra. No sobre las armas, sino todas las tecnologías armamentísticas. Sostiene que debemos reconocer que la elección de las tecnologías puede influir en las capacidades ofensivas tanto como la elección de las armas.
La aparición de tecnologías de inteligencia artificial (IA) y su uso en los conflictos es un tema que cada vez cobra mayor importancia en los debates internacionales. No obstante, pese a la amplia diversidad de aplicaciones de IA, los foros internacionales –por ejemplo, el Grupo de expertos gubernamentales sobre sistemas de armas autónomos letales de la Convención sobre ciertas armas convencionales– se centran exclusivamente en las aplicaciones de la IA en los sistemas armados. Si bien no existe una definición acordada, el término sistemas de armas autónomos letales se utiliza generalmente para referirse a los sistemas de armas que pueden seleccionar y atacar objetivos sin intervención humana, un acento en el armamentismo que incluso se enfatiza de manera tautológica por la incorporación de “letal” en el nombre de la tecnología en cuestión. Las tecnologías de inteligencia artificial no armamentísticas –por ejemplo, asistencia para la toma de decisiones[1] o tecnologías de perfeccionamiento humano militar[2]– suelen pasarse por alto y carecen de un foro adecuado.
Pero, desde una perspectiva jurídica, ¿está justificado este enfoque centrado en las armas?
Para responder a esta pregunta, señalo y examino una disposición crucial del derecho internacional humanitario que refleja la limitada libertad de los Estados para seleccionar medios o métodos de guerra: el Protocolo adicional I (PA I), artículo 36, que impone a los Estados Partes la obligación de determinar que la licitud de “una nueva arma, o nuevos medios o métodos de guerra” se estudie exhaustivamente durante su desarrollo o adquisición y antes de su uso y despliegue. Existe una tendencia predominante entre los Estados y los académicos de la denominación “examen de las armas”, como si los elementos no armamentístico estuvieran excluidos. Sin embargo, esta descripción es demasiado simplista.
Así pues, demos un paso atrás y desentrañemos una cuestión que los juristas internacionales y los expertos estatales suelen desestimar y dar por sentada: ¿cuáles son, concretamente, las “armas, medios o métodos de guerra” sobre los que versan estos debates periódicos?
En palabras de Mary Ellen O’Connell: “necesitamos un cambio radical en nuestra forma de pensar sobre las armas”. Necesitamos un cambio para considerar las tecnologías que pueden estar lejos del campo de batalla, que no son armas en el sentido tradicional y que, sin embargo, contribuyen de manera significativa a la conducción de las hostilidades. Tenemos que dejar de describir el artículo 36 como una disposición que exige estrictamente un examen de las armas y reconocer que la elección de tecnologías no armamentísticas puede influir en las capacidades ofensivas y defensivas de los ejércitos tanto como la elección de las armas. No necesitamos un examen de las armas, sino un examen de las “tecnologías de guerra o armamentísticas”, como también las denomina el CICR,, un término que se adapta al campo de batalla moderno, que abarca tanto los avances militares actuales como los futuros, y que pone de relieve un amplio alcance del examen en el espíritu de los fundamentos del artículo 36.
Terminología de las armas bajo presión: precisar el alcance del examen del artículo 36
El Protocolo adicional I no define los términos cruciales: “una nueva arma, o nuevos medios o métodos de guerra”. No existe una definición común de estos términos; tampoco se proporciona un contexto que aclare su significado en otra disposición del Protocolo ni su preámbulo. De manera intencionada, los redactores del Protocolo dejaron abierto el ámbito de aplicación para que fuera suficientemente inclusivo de una amplia variedad de elementos militares y para evitar que los Estados evadieran o eludieran esta prohibición desarrollando o definiendo nuevos instrumentos bélicos con capacidades distintas.
Al mismo tiempo, esta elección puede haber creado cierta incoherencia en la aplicación del Protocolo, así como falta de claridad en lo que respecta a los elementos que deben ser objeto de examen. Por ejemplo, en 2017, Países Bajos y Suiza declararon que “lo que debe incluirse en la categoría de medios, además de, por supuesto, las armas (…), que es lo que debe examinarse, está sujeto a debate”.
Podría decirse que el término “armas” ha sido el más fácil de definir de los tres términos. Las definiciones nacionales de los Estados incluyen una amplia diversidad de armas, desde las tradicionales –como armas de fuego– hasta municiones, misiles, armas no letales o menos letales y sistemas de lanzamiento. Estas definiciones suelen abarcar todos los objetos concebidos con el ánimo de causar daño directamente a personas o a objetos.
La mayor ambigüedad reside en la interpretación de los términos “medios o métodos de guerra”. Históricamente, uno de los enfoques más comunes ha sido el de interpretar “medios y métodos” en conjunto, como si se refirieran directamente a las armas: por un lado, captando el diseño de un arma (medios) y, por otro, cómo se espera que se utilice el arma (métodos). Sin embargo, en las dos últimas décadas, podemos observar el desarrollo de un segundo enfoque que interpreta los términos por separado, influenciado por una importante contribución de Justin McClelland, oficial que realiza el examen jurídico para las fuerzas armadas británicas. En su artículo publicado en 2003, McClelland definió los medios de guerra como “elementos de equipamiento que, aunque no constituyen un arma como tal, tienen sin embargo un impacto directo en la capacidad ofensiva de la fuerza a la que pertenecen”. Este enfoque aportaba mayor claridad a la inclusión de elementos de equipo no armamentístico, como los vehículos de remoción de minas, y de “métodos de guerra” como las técnicas de perfidia o de inanición prohibidas por el derecho internacional.
En particular, ciertas capacidades cibernéticas están ahora sujetas al examen del artículo 36. La norma 110 del Manual de Tallin 2.0 señala que los Estados deben llevar a cabo un examen jurídico de los “medios de guerra cibernéticos”, y muchos Estados ya lo han hecho. Esta evolución es significativa, considerando que las capacidades cibernéticas ya no se asemejan a la típica apariencia de hierro y acero de las armas. Mientras que antes solo se examinaban los objetos que tenían influencia directa en el campo de batalla, esta adición abre un abanico de posibilidades para examinar sistemas que, indirectamente a través de una cadena de efectos, consiguen el propósito de infligir daño o perjuicio. Esto excluye el ciberespionaje, que es una mera recopilación pasiva de información. En cambio, destaca las tecnologías que son capaces de “transformar la recopilación pasiva de información en una perturbación activa” y, por tanto, se considera que entran en el significado de “medios de guerra”.
Estos hechos muestran que, bajo la presión de los avances tecnológicos, el significado del artículo 36 dentro del derecho internacional ha evolucionado para incluir un abanico más amplio de elementos distintos de las armas, como los que están destinados a causar daños indirectos. Esta evolución debe seguir teniendo en cuenta las nuevas tecnologías que están cambiando significativamente la conducción de las hostilidades.
Examen de las tecnologías de guerra o armamentísticas: cuatro criterios generales
In contemporary armed conflict, new means of warfare are not easily identifiable. They come in different shapes and forms, such as algorithmic codes or nano-bio-info-cognitive technologies that enhance human capacities. Furthermore, these emerging technologies are often of dual use – both civilian and military – which makes it even more difficult to define them or find viable pathways for regulating their use in the military context.
Think of facial recognition software, developed first as an algorithm, and then ‘militarized’ by its inclusion in software that matches the faces captured on a drone camera with military databases of headshots of known or suspected terrorists. Even if this dual use technology is never automated, it can be used to provide recommendations to the battlefield soldiers or drone operators in targeting decisions. Such technologies, although they differ from conventional weapons, are expected to considerably influence human agency, human judgement, and human intention in warfare decision-making.
To consider whether an item shall fall within the scope of Article 36 and be subjected to a legal review, I propose to consider the following four general criteria, taking into account the above-mentioned characteristics of ‘weapons, means or methods of warfare’ and the evolving interpretation of Article 36.
1. Cumplimiento del derecho internacional
El primer criterio considera si el elemento corre el riesgo de que los Estados no cumplan con el derecho internacional. Este criterio desencadena, entre otras, las siguientes preguntas: en primer lugar, ¿está el elemento o su uso previsto expresamente prohibido por las obligaciones jurídicas existentes? y, en segundo lugar, (si no está prohibido per se) ¿podría su uso previsto en un entorno operacional violar normas o principios del derecho internacional aplicable? Si un sistema o su uso en la guerra puede dar lugar a la violación de normas y principios jurídicos, entonces debería ser en el mejor interés de los Estados Partes velar por que tales elementos sean examinados antes de su despliegue o uso.
2. Integración en la toma de decisiones y en las operaciones militares
En el caso de los elementos no armamentísticos (incluidos los que pueden cumplir plenamente las normas y principios aplicables) que no están prohibidos por la ley ni violan explícitamente ninguna norma o principio de la legislación aplicable, se requiere un examen adicional de su uso previsto dentro de la infraestructura militar crítica. Esto abarca la consideración de si el elemento formará parte integral de la toma de decisiones críticas (es decir, las decisiones sobre objetivos) y se utilizará en una cadena de efectos para infligir daños, lesiones o perjuicios. Este es el caso de ciertas capacidades cibernéticas y puede incluir además asistencia para la toma de decisiones o tecnologías de perfeccionamiento humano.
Pensemos en la asistencia para la toma de decisiones en materia de objetivos de ataque (por ejemplo, los programas informáticos de reconocimiento facial) con tendencia a identificar erróneamente a determinadas personas de sexo femenino, lo que da lugar a un sesgo de género y a un pequeño porcentaje de objetivos mal identificados. Un algoritmo de este tipo, si utiliza técnicas de aprendizaje automático, puede utilizarse junto con las operaciones militares para mejorar su precisión con el tiempo. Sin embargo, sería sumamente problemático si se utilizara como elemento integral de la infraestructura de toma de decisiones militares, en cuyo caso las recomendaciones de este software podrían dar lugar a decisiones finales sobre objetivos de ataque ilícitos. Los fenómenos de la falta de habilidad y el sesgo de la automatización ponen de manifiesto que, incluso cuando un sistema no actúa de forma totalmente autónoma, puede convertirse en un elemento integral de la toma de decisiones militares, por lo que debe ser examinado antes de su despliegue o utilización.
3. Información útil para la toma de decisiones y las operaciones militares
Si un elemento forma parte de la toma de decisiones y de las operaciones militares, es necesario realizar otra evaluación para determinar si su contribución a la cadena de efectos es significativa. Principalmente, como en el caso de las capacidades cibernéticas, es necesario considerar si el elemento interpreta, traduce o filtra la información antes de proporcionarla a los responsables humanos de la toma de decisiones. En lugar de limitarse a mostrar la información (por ejemplo, una cámara de vídeo), ¿procesa y proporciona inteligencia procesable (por ejemplo, un software de reconocimiento de objetivos) que puede afectar significativamente a las decisiones militares? Como señala el informe del SIPRI, incluso un sistema de vigilancia puede ser objeto de examen “si se puede establecer que recoge y procesa información utilizada en el proceso de selección de objetivos’.
4. Uso previsto en la conducción de las hostilidades
El último criterio de evaluación se refiere al uso específico previsto del elemento en cuestión. No todas las tecnologías integradas en las decisiones militares, con capacidad para proporcionar inteligencia procesable, deben entrar en el ámbito de aplicación del artículo 36. Solo los elementos destinados a ser utilizados en la conducción de las hostilidades, es decir, en apoyo de decisiones militares críticas, deben ser examinados para prevenir daños, lesiones o perjuicios evitables (y/o ilícitos).
* * * * *
En resumen, no se puede justificar un enfoque centrado en las armas para la regulación de las nuevas tecnologías de guerra. Cuando un elemento corre el riesgo de incumplir el derecho internacional, está destinado a ser utilizado en la toma de decisiones militares críticas y puede alterar significativamente la naturaleza de la información procesada, debe ser objeto de examen antes de su despliegue o utilización. Cabe señalar que un elemento de este tipo –junto con los operadores humanos, los soldados y los comandantes– participa en la producción conjunta de las hostilidades, es decir, no se puede conseguir el mismo resultado sin su uso.
Los criterios mencionados tratan de incluir tanto los elementos que pueden influir directa o indirectamente –a través de una cadena de efectos– en la conducción de las hostilidades. De conformidad con la obligación que les impone el Protocolo adicional I, los Estados Partes deben, por tanto, asegurarse de que todos esos elementos sean examinados detenidamente antes de su despliegue.
La intención de los redactores del PA I en el sentido de proporcionar un ámbito de aplicación suficientemente amplio al artículo 36 puede hacerse realidad si se recogen adecuadamente las soluciones tecnológicas emergentes que plantean nuevos retos y amenazas para el cumplimiento de las normas y los principios jurídicos, no solo de las nuevas armas, sino también de las nuevas tecnologías de guerra que, de forma indirecta pero creciente, afectan nuestras decisiones y nuestra conducta en la guerra.
[1] La asistencia para la toma de decisiones o los sistemas de apoyo para las decisiones se refieren a tecnologías que utilizan algoritmos para procesar y filtrar la información con el objetivo de ofrecer recomendaciones y ayudar a los responsables de la toma de decisiones.
[2] La tecnología de perfeccionamiento humano se refiere a un amplio abanico de tecnologías biomédicas con el objetivo de mejorar las capacidades físicas o mentales del ser humano. En el contexto militar, las tecnologías de perfeccionamiento humano se están desarrollando para mejorar las capacidades de los soldados.
Véase también:
- Christopher Chen, The future is now: artificial intelligence and anticipatory humanitarian action, 19 de agosto de 2021
- Dustin A. Lewis, Legal reviews of weapons, means and methods of warfare involving artificial intelligence: 16 elements to consider, 21 de marzo de 2019
- Netta Goussac, Safety net or tangled web: Legal reviews of AI in weapons and war-fighting, 18 de abril de 2019
Comentarios