Las investigaciones de defensa sobre la utilización de la inteligencia artificial (IA) en las armas empleadas en guerras y conflictos marchan a gran velocidad, empezando porque muchas de las técnicas básicas se usan hoy en Netflix o en los iPhone.
Conforme a los criterios de
Cuando se nos sugiere en Netflix qué película ver o cuando empleamos el reconocimiento facial que hacen los teléfonos inteligentes estamos utilizando tecnologías que pueden aplicarse para recomendar el curso de una acción bélica determinada o para atacar objetivos militares en un campo de batalla.
La IA militar, que se alimenta de datos recolectados en tiempo real en el campo de batalla, está acelerando los cambios en la dinámica de las guerras y conflictos, y la pregunta sería si los ejércitos están preparados para enfrentar esos desafíos.
La compañía finlandesa Nokia ha empezado a proveer la llamada IA militar en su plataforma AVA con el propósito de ayudar a las fuerzas armadas de Finlandia, Estados Unidos, Alemania y el Reino Unido, según informó.
La IA militar es una tecnología que cambia a un ritmo vertiginoso, que puede registrar información variada sobre la posición y ubicación del enemigo, por ejemplo. Su uso potencial en distintos ámbitos, como el militar, es cada vez mayor, reconoce la ONU.
“Muchos de los ejemplos en torno a la tecnología de seguridad provienen de espacios civiles, porque la tecnología es la misma”, lo que cambia es su aplicación y uso, según Shimona Mohan, investigadora asociada del Instituto de las Naciones Unidas de Investigación sobre el Desarme (Unidir).
Mohan investiga en áreas como la tecnología y seguridad el desarme desde la perspectiva de las armas de destrucción masiva, las biológicas y químicas, así como su uso en el espacio, entre otras cosas. Su objetivo principal es revelar brechas en la regulación que faciliten la elaboración de políticas más efectivas.
Pero la investigadora admite que “es muy difícil definir cómo se emplea la IA en los campos de batalla porque la tecnología cambia y es complicado hacer un seguimiento”.
La IA de la que hablábamos hace diez años no es la misma de hoy. “Como resultado, también se ha transformado la forma en que se ha empleado en los campos de batalla”, sostiene.
Una de las tecnologías más comunes de la IA militar es la de los sistemas autónomos de armas letales. “Son sistemas en los que hay muy poca o ninguna supervisión humana, como vehículos no tripulados, aéreos o terrestres, ecológicos o pistolas centinelas”, precisa Mohan.
La lista incluye también perros robots, armas con apariencia humanoide o enjambres de drones autónomos.
Mohan sostiene que la IA también se está empleando en “el funcionamiento logístico y administrativo del ejército, ya sea en la planificación, en la gestión de datos o para facilitar y acelerar las tareas militares, entre otras cosas.
Eso incluiría los traductores en algunas aplicaciones de IA empleados en las fronteras nacionales. “Muchos soldados están ahora equipados con estas herramientas instantáneas que traducen entre dos idiomas en tiempo real”, dice la investigadora.
Mohan y su equipo analizan también cómo utilizamos la tecnología tanto en el campo de batalla como fuera de él. “Los mismos sistemas que tienen en Netflix, que recomiendan qué película ver a continuación, pueden emplearse en el campo de batalla para recomendar un curso de acción determinado a los comandantes y operadores”, revela.
El uso aumenta
En la actualidad existe una serie de tecnologías bajo la inteligencia artificial generativa. Ha aumentado el potencial de su aplicación y es muy amplio el espectro en el que puede aplicarse, afirman expertos.
En Colombia, las disidencias de las Fuerzas Armadas Revolucionarias de Colombia (Farc) acaban de utilizar un dron que lanzó una granada, mató a un niño de 10 años e hirió a 6 personas al ser lanzada sobre un campo de fútbol en El Plateado, en el municipio de Argelia, departamento del Cauca.
La Alcaldía de Popayán prohibió el vuelo de los drones tras el ataque con explosivos contra una estación de policía el 7 de junio.
En el mes de junio, el Ejército colombiano informó sobre el registro de 17 ataques con drones en seis semanas, que no dejaron muertos pero que son una modalidad inédita en los 60 años del conflicto colombiano.
EL TIEMPO se contactó con la Oficina de Comunicaciones del Ejército para ampliar esta información, pero no recibió respuesta.
Investigadores sostienen, por otro lado, que la guerra entre Rusia y Ucrania es un ejemplo de cómo los ejércitos han incorporado la IA al campo de batalla y el uso de los drones autónomos, empleados para hacer más eficientes los ataques.
Ucrania espera que un despliegue de drones habilitados con IA en la línea del frente le ayude a superar el creciente bloqueo de señales por parte de los rusos, dice Forbes.
“En Ucrania, un puñado de empresas emergentes están desarrollando sistemas de inteligencia artificial (IA) para ayudar a volar una vasta flota de drones, llevando la guerra a territorio desconocido, mientras los combatientes compiten por obtener una ventaja tecnológica en la batalla”, afirma.
Expertos sostienen que Ucrania desarrolla tecnología militar con IA, con la ayuda de un grupo de cooperación internacional especializado en todo tipo de sistemas de defensa y armamento no tradicional, como armas automatizadas o autónomas, que podrían operar independientemente y cambiar para siempre, según expertos, las operaciones militares.
En México, por otra parte, el Ejército utiliza tecnología de reconocimiento facial en los aeropuertos, lo que requiere IA, y emplea drones en varias partes del país, pero se desconoce el objetivo principal de esa operación, de acuerdo con informes extraoficiales.
El factor humano
César Pintado, profesor del Observatorio de Inteligencia, Seguridad y Defensa de España (Cisde), recomienda no eliminar el factor humano en las operaciones de combate con IA, que son cada vez más complejas.
Anna Nadibaidze, investigadora del Centro de Estudios sobre la Guerra y del Departamento de Ciencias Políticas y Gestión Pública de la Universidad del Sur de Dinamarca, resalta que borrar la presencia humana implicaría también “una pérdida de la capacidad moral” en los combates.
En su opinión, con un operador humano siempre existe la posibilidad, en teoría, de ejercer la compasión, empatía y el juicio humano, mientras que eso no existe en un sistema de IA, que está entrenado con datos y preprogramado.
Ambos investigadores admiten que existen también beneficios en las operaciones militares con IA, como una mayor precisión y un menor número de bajas cuando son empleadas las llamadas “armas disruptivas”, como se identifica el armamento creado a partir de la IA.
No obstante, alertan sobre los riesgos que se corren, como que “los algoritmos podrían tener sesgos en sus modelos de datos, como por ejemplo: errores de identificación facial biométrica o falta de una evaluación profunda de su entorno”, según Pintado.
La comunidad internacional ha expresado en diferentes foros gran preocupación por los escenarios no explotados de la IA, y muchos consideran importante que se regule con urgencia su empleo en la guerra.
Geoffrey Hinton, experto en IA, pidió recientemente una moratoria de seis meses en el desarrollo de esta tecnología con el fin de que se reflexione sobre sus posibles consecuencias, mientras que otros como Nadibaidze piden que se acelere su regulación.
En opinión de esta última, urge “abordar esto con normas jurídicamente vinculantes, y hacer frente a estos desafíos porque las normas internacionales actuales y el Derecho Internacional Humanitario no son suficientes, toda vez que se hicieron cuando los seres humanos estaban a cargo”.
“Las normas del Derecho Internacional Humanitario (DIH) establecen límites al uso de los medios y métodos de combate en el desarrollo de las hostilidades, pero no fue elaborado teniendo en cuenta los desafíos que plantea la IA”, de acuerdo con la investigadora de la Universidad de Buenos Aires Marta R. Vigevano, al referirse a los limites jurídicos y éticos aplicables a la IA y los conflictos armados.
“… Los algoritmos y su aplicación militar emergente constituyen un desafío a la luz de las normas humanitarias. Ese desafío comprende tres ámbitos fundamentales: el técnico, el legal y el ético”, afirma.
Nadibaidze considera que hay que focalizarse en lo que sucede en la actualidad y no en concepciones futuristas, como los robots asesinos, que, de momento, solo hacen parte de la ciencia ficción.
Para Vigevano urge que los Estados adopten regímenes de “verificación, prueba y monitoreo para determinar e imponer limitaciones o prohibiciones de acuerdo con los principios esenciales de distinción y proporcionalidad que el DIH establece en la utilización de armas durante los conflictos armados internacionales o no”.
“Tanto desde una perspectiva legal como ética –agrega– el ser humano está en el centro de esta problemática, ya que la responsabilidad por el uso de la fuerza no puede transferirse a sistemas de armas o algoritmos y sigue siendo una responsabilidad humana”.
GLORIA HELENA REY
Para EL TIEMPO