Back to top
Inteligencia artificial

Más allá de armas autónomas, la Inteligencia Artificial es utilizada en el sector militar para la toma de decisiones estratégicas

'El uso de estos sistemas corre el riesgo de provocar el llamado sesgo de automatización', así como 'la deshumanización digital y la pérdida de control humano en el uso de la fuerza'.

San Francisco
Soldados israelíes junto a un soporte tecnológico.
Soldados israelíes junto a un soporte tecnológico. AFP

Los sistemas de Inteligencia Artificial (IA) están cada vez más presentes y son cada vez más determinantes en los grandes temas globales, y el futuro tecnológico de la guerra es uno de ellos, toda vez que los expertos presagian que la IA tendrá un rol preponderante en el desarrollo militar y los pasos encaminados en tal sentido ya se ven sobre el campo de batalla. Pero más allá de armas autónomas, drones y vehículos, la revista especializada Wired advirtió esta semana que los sistemas basados en IA están siendo utilizados para la toma de decisiones estratégicas.

Así, "los algoritmos de aprendizaje profundo basados en IA se están convirtiendo, cada vez más, en oficiales capaces de tomar decisiones estratégicas, elegir qué objetivos atacar (y cuántos) e incluso identificar los puntos débiles del ejército enemigo. En resumen, la Inteligencia Artificial está escalando en las jerarquías militares", detalló el citado medio.

El ejemplo más conocido es el denominado Proyecto Lavender, empleado por las Fuerzas de Defensa de Israel (IDF) para identificar y atacar el mayor número posible de objetivos durante la operación militar en Gaza.

"Lavender no es un arma. Se trata más bien de un software de gestión basado en IA, que analiza la enorme cantidad de datos que le proporciona el ejército: los nombres y características de cada persona que vive en Gaza (obtenidos a través de la vigilancia masiva llevada a cabo sobre la población), imágenes recibidas desde drones, mensajes interceptados, análisis de redes sociales, y mucho más", explicó Wired.

"Cruzando toda esta información, Lavender evalúa si un individuo forma parte o no de Hamás o de otros grupos armados palestinos, determina dónde y cuándo hay más probabilidades de alcanzarlo y transmite toda esta información al ejército, que en la mayoría de los casos ordena un ataque aéreo para matar al objetivo", añadió.

El exjefe de las IDF, Aviv Kochavi, dijo al periódico inglés The Guardian que Lavender "es capaz de detectar hasta 100 objetivos al día". "Para dar una perspectiva, en el pasado solíamos obtener 50 objetivos al año, añadió.

Según la experta Alice Civitella, de la Sociedad Italiana de Derecho Internacional, "confiar de este modo en un sistema informático plantea varios aspectos problemáticos". "En primer lugar, debido a la vaguedad de los datos proporcionados al sistema durante la fase de entrenamiento, Lavender cometió varios errores en la identificación de personas, confundiendo a policías y trabajadores de la defensa civil con militantes de Hamás o indicando objetivos erróneos debido a una homonimia banal", suscribió.

Según Foreign Policy, el porcentaje de error tolerado por el ejército se ha fijado en el 10%. Los objetivos que superan este porcentaje son revisados rápidamente por un equipo de analistas humanos.

No obstante, apuntó Wired, "el uso de estos sistemas corre el riesgo de provocar el llamado 'sesgo de automatización': la tendencia de los seres humanos a aceptar las indicaciones de la máquina (considerada un sistema objetivo, ya que actúa sobre una base estadística) incluso en circunstancias en las que, de otro modo, habrían actuado de forma diferente. Por otro lado, el uso de programas informáticos como Lavender elimina al menos parte de la responsabilidad de los agentes que se basan en ellos".

Ante el auge de la IA al servicio de objetivos militares, la campaña internacional Stop Killer Robots, alertó que "el uso de estos sistemas suscita 'serias preocupaciones por el creciente uso de la Inteligencia Artificial en los conflictos, los sesgos inherentes a las formas de automatización, la deshumanización digital y la pérdida de control humano en el uso de la fuerza".

A pesar de las advertencias, Israel no es el único que utiliza este tipo de sistemas. China, por ejemplo, utiliza softwares similares en la provincia de Xinjiang para identificar y encontrar a miembros de la minoría uigur, sospechosos de actividades subversivas.

La empresa líder en Occidente en este tipo de tecnología es la compañía estadounidense Palantir, que, según Wired, "está desempeñando un papel importante en el conflicto entre Rusia y Ucrania". En tal sentido, la revista Time detalló que "la plataforma desarrollada por Palantir y empleada por las fuerzas ucranianas es capaz de integrar datos de múltiples y diversas fuentes (satélites, drones e inteligencia) y luego cruzarlos para proporcionar a los militares información relevante. El algoritmo de Palantir puede, por ejemplo, ser extraordinariamente hábil para identificar un centro de mando enemigo".

"Independientemente de que sean utilizados por las fuerzas aliadas o enemigas, por quienes se defienden de una invasión o por quienes la perpetran, el hecho de que este software de ayuda a la toma de decisiones permita alcanzar una enorme cantidad de objetivos en muy poco tiempo solo significa una cosa: más combates, más bombardeos y, por tanto, más muertes, entre soldados y civiles", concluyó Wired.

Más información

Sin comentarios

Necesita crear una cuenta de usuario o iniciar sesión para comentar.