A una velocidad mucho menor que a la que se desarrollan los sistemas de Inteligencia Artificial (IA) en el ámbito militar, los ciudadanos del planeta tierra comienzan a reunirse con cada vez mayor asiduidad para discutir las consecuencias de las rapidísima integración y adaptación de este tipo de sistemas en todo tipo de armamento, lo que conduce a que poco a poco estos sistemas sean más autónomos y prescindan cada vez más de las decisiones de los seres humanos en sus acciones. Y como no, el uso de drones equipados con IA por parte de Ucrania en el conflicto que mantiene hace más de dos años con Rusia fue citado como un ineludible ejemplo de esta situación que se nos está presentando, y que también en el conflicto entre Israel y Hamas ha dado buena cuenta de sus beneficios tácticos e inconvenientes humanos.
La última anfitriona para discutir sobre este tema ha sido en este mismo mes de septiembre Corea del Sur, en una cumbre internacional de dos días en la que 61 países respaldaron un documento no vinculante (o sea, una llamada de atención) sobre la Inteligencia Artificial Responsable en el Ámbito Militar (REAIM, por sus siglas en inglés).
Corea del Sur, Estados Unidos, Japón, Francia, Alemania, Reino Unido, Suiza, Suecia, Pakistán y Ucrania se encuentran entre los 61 países que respaldaron el documento, pero China, por ejemplo, fue uno de los 30 Estados que decidieron no adherirse a él, dando cuenta de las posiciones e intereses divididos que rigen este tema. Mientras tanto, Rusia no fue invitada por segundo año consecutivo, en consonancia con la condena internacional de su invasión a Ucrania.
Esta cumbre, celebrada en Seúl y coorganizada por los Países Bajos, Singapur, Kenia y el Reino Unido, sigue la sesión inaugural del año pasado en La Haya, donde se marcaron las primeras pautas sobre el uso de la IA en el campo de batalla.
¿Cómo actuar con la Inteligencia Artificial y la Defensa? Peligros que acechan
El Plan de Acción de REAIM que se ha descrito en esta reunión de Seúl quiere hacer hincapié en 20 puntos importantes, divididos en tres temáticas diferentes:
- El impacto que produce la IA en la paz y seguridad internacional.
- La implementación de la IA responsable en la Defensa.
- Gobernanza futura de la IA en el entorno militar.
Obviamente, la cumbre enfatizó mucho en que "es necesario mantener una participación humana apropiada en el desarrollo, despliegue y uso de la IA en el ámbito militar, incluyendo medidas adecuadas relacionadas con el juicio y control humano sobre el uso de la fuerza".
El crecimiento sin control de la inteligencia artificial en sistemas de armamento modernos representa un riesgo creciente para la humanidad. La posibilidad de que las decisiones de vida o muerte sean tomadas por máquinas y algoritmos sin la supervisión humana es uno de los mayores peligros. La deshumanización de la toma de decisiones bélicas podría tener consecuencias desastrosas, especialmente en situaciones donde el juicio ético y la comprensión de las complejidades del campo de batalla son básicas. La velocidad a la que operan estos sistemas podría dejar a los seres humanos sin capacidad de intervención, lo que incrementaría el riesgo de errores fatales o de escaladas de conflictos.
La pérdida de esta supervisión, debido a una creciente dependencia de la IA en armas autónomas, plantea la posibilidad de que decisiones críticas, como el uso de fuerza letal, sean determinadas por patrones de datos y no por una evaluación humana. Este riesgo se agrava cuando los sistemas de IA se despliegan en áreas densamente pobladas, como zonas urbanas, donde distinguir entre combatientes y civiles es muy complicado, o directamente imposible.
El peligro es aún mayor en escenarios donde la IA se usa en sistemas nucleares o en la toma de decisiones estratégicas de alto riesgo
Otros ámbitos en los que los peligros del crecimiento descontrolado de la IA en armamento son evidentes son en la guerra cibernética y en la manipulación de señales. El uso de IA para lanzar ciberataques automáticos o para interferir en redes de comunicación críticas podría tener un impacto devastador en infraestructuras esenciales, como hospitales, redes eléctricas o sistemas financieros. La automatización de estos ataques podría desatar un caos masivo, afectando directamente a la población civil y causando daños irreparables en un corto período de tiempo.
"De momento no hay una revolución en los temas militares basada en la IA"
En línea con esta creciente preocupación global, el director general del Centro de Sistemas y Tecnologías de la Información y las Comunicaciones del Ministerio de Defensa, el teniente general José García Millán, responsable de la implantación de la IA en este ámbito, ha considerado este mismo lunes que "de momento no hay una revolución en los temas militares basada en la IA".
Así lo ha asegurado en la conferencia inaugural del XXXI Curso Internacional de Defensa, organizado por la Academia General Militar (AGM) y la Universidad de Zaragoza en Jaca (Huesca) y que en esta edición tiene como lema "Inteligencia Artificial: oportunidades y desafíos para la seguridad y la defensa".
Durante su intervención, recogida por Europa Press, el director general del Centro de Sistemas y Tecnologías de la Información y las Comunicaciones ha señalado que "se están produciendo avances en IA en muchos ámbitos, pero el grado de implantación es moderado, ya que hay dificultades tecnológicas y culturales".
Según ha apuntado que "se visualiza su potencia transformadora en la logística o en la robotización del campo de batalla, pero de momento no hay una revolución en los temas militares basada en la IA, ya que no ha motivado cambios en aspectos relacionados con los sistemas, organizaciones o en la doctrina". Por ello, el teniente general José García Millán ha concluido que "estamos lejos de que un sistema autónomo reemplace a unidades militares, pero las consecuencias jurídicas y éticas de la implantación de la IA hay que atenderlas desde ya para saber cuál es el marco de actuación y poder desenvolvernos en él".
En definitiva, el avance de la Inteligencia Artificial en el ámbito militar esboza múltiples posibilidades, pero también temibles inconvenientes. La falta de supervisión humana plantea demasiados riesgos inaceptables, así que, se decida lo que se decida, la regulación debe ser estricta y garantizar que los seres humanos siempre serán quienes, de alguna manera, deben de supervisar los sistemas de armas modernos que usen IA.