La Cruz Roja afirma que abordar el problema de las futuras armas autónomas será crítico ya que plantea cuestiones éticas sobre la delegación de decisiones letales a las máquinas. Mientras, una reciente encuesta internacional muestra un importante rechazo de la ciudadanía de 26 países, entre ellos España, a este tipo de armamento.

Los sistemas armamentísticos autónomos letales, los 'robots asesinos', no existen aún. No obstante, la creciente automatización de las armas mantiene abierto desde hace años un debate internacional sobre la necesidad de una regulación o, directamente, una prohibición de los mismos. El problema de fondo es si dejar o no en manos de un algoritmo la decisión de matar a un ser humano.

Mientras países como EEUU, China, Reino Unido, Rusia, Francia e Israel desarrollan armamento cada vez más automatizado, no existe aún un tratado o una legislación internacional que regule lo que, probablemente, será una realidad en un futuro cercano: los 'robots asesinos'.

Este tipo de sistemas de armas serán capaces de seleccionar objetivos de forma independiente, es decir, sin intervención humana, y atacarlos. Por lo tanto, son diferentes a los drones operativos hoy en día, ya que en este caso los humanos seleccionan y atacan objetivos, pero a distancia.

El secretario general de la ONU, Antonio Guterres, apoya una prohibición total [] de estos sistemas armamentísticos autónomos, y muchas ONGs y activistas exigen que exista, al menos, un marco normativo suficientemente estricto.

De momento, ese marco no existe. Si bien se negocia un protocolo para este mismo año en el marco de la Convención sobre Ciertas Armas Convencionales (CCV), una encuesta de Ipsos publicada este martes y encargada por Human Rights Watch y la Campaña Contra los Robots de Combate —una alianza de 88 ONG que trabaja en este asunto desde octubre de 2012— muestra que el 61% de los participantes de 26 países se oponen a la existencia de este tipo de armamento autónomo (el 65% en España).
YouTube Video
ERROR: Si ves este mensajeYouTube esta caido o no tienes el Flash Player instalado.
Las Naciones Unidas están revisando las implicaciones estratégicas, legales y morales de los sistemas de armas autónomos letales. Sin embargo, tras una reunión en noviembre del CCV, tan solo 28 países en el mundo están dispuestos a prohibir este tipo de armamento. España no se encuentra en este grupo (PDF).

Donde sí está España es en el grupo que precisamente no apoya una negociación de un nuevo tratado sobre este asunto, al lado de Australia, Bélgica, Francia, Alemania, Israel, Corea del Sur, Rusia, Suecia, Turquía, EEUU y el Reino Unido.

Cruz Roja

En una entrevista concedida a la Fundación Thomson Reuters en Yakarta, Yves Daccord, director general del Comité Internacional de la Cruz Roja (CICR), afirmó que este sería un tema crítico en los próximos años, ya que planteaba cuestiones éticas sobre la delegación de decisiones letales a las máquinas y la responsabilidad que conllevan las acciones de estas máquinas.

"Tendremos armas que vuelan sin ser manejadas remotamente por un humano y tendremos suficiente inteligencia para localizar un objetivo y decidir si es la persona adecuada para eliminar", dijo Daccord. "No habrá un ser humano que tome esa decisión, será la máquina quien decida: el mundo esencialmente delegará la responsabilidad en un algoritmo para decidir quién es el enemigo y quién no, quién vive y quién muere".

Significativamente, Cruz Roja no aboga por la prohibición total, sino por "mantener un nivel de control humano sobre tales armas". "Esto significa que, en cualquier momento de la operación, un humano puede intervenir", dijo Daccord. Según el CICR, las normas deberían abordar cuestiones como la definición de armas autónomas, el nivel de supervisión humana sobre estas armas, como la capacidad para intervenir y desactivar, así como las condiciones operativas para su uso.

Los partidarios de las armas autónomas alegan que éstas harán la guerra más humana, al ser más precisas en la localización y eliminación de los objetivos. Para afirmar lo anterior, argumentan que los robots carecen de emociones humanas como el miedo o la venganza y minimizarán las muertes de civiles, sostienen los defensores de estos robots.

No obstante, Daccord recuerda que tales máquinas podrían funcionar mal, y esto puede generar dudas sobre la responsabilidad ante un error. "Se puede responsabilizar a las personas, según el derecho internacional humanitario, con armas gestionadas a distancia, como los drones, pero con las armas autónomas nos estamos movemos en un nuevo territorio", dijo.

Problema ético

Para Milton Meza Rivas, investigador de la Niversidad de Barcelona y asesor del Grupo de Trabajo sobre sistemas de armas autónomas letales de la ONU, "un robot autónomo letal, por muy bien diseñado y programado que esté, probablemente no podría cumplir a rajatabla los principios básicos del derecho internacional humanitario (especialmente los de distinción, proporcionalidad y precaución) ya que, en razón de la complejidad que involucra una operación militar, es difícil que la máquina pueda contar con una base de datos que le permita evaluar todo el contexto".

Así, este experto sostiene, en un análisis publicado por el Institiuto Español de Estudios Estratégicos (IEEE) en agosto de 2016 (PDF), que podría haber un incremento en el riesgo de que se produzcan daños no previstos e indiscriminados contra inocentes, ya que, como recuerda, "los principios rectores del derecho internacinal humanitario implican una capacidad de discernimiento propia del ser humano".

El problema de fondo es, por tanto, ético. Así al menos lo consideran expertos como Carlos Espósito, catedrático de Derecho Internacional Público en la Facultad de Derecho de la Universidad Autónoma de Madrid.

En una conferencia en la Fundación para la Investigación sobre el Derecho y la Empresa (Fide) en 2017 alertaba de que, desde la perspectiva del derecho internacional, habrá problemas cuando "la tecnología permita que los drones sean totalmente autónomos, es decir, que su programación le permita disparar sin esperar una orden o autorización de un operador humano".

Es decir, es necesario resolver el dilema que plantea dejar que un robot, que a priori no tiene capacidad empática, decida y mate por sí mismo a una persona. Así, para Espósito, mientras que la atribución de responsabilidad y la reparación de los daños y perjuicios son problemas que se resuelven jurídicamente, la cuestión relativa a si es justo delegar la decisión de matar en una máquina es un problema ético.

publico.es / P. Romero, 23 enero 2019

Alertan sobre el uso de 'robots asesinos' en futuras guerras: no existe aún regulación