La empresa de Inteligencia Artificial OpenAI, creadora de Chat GPT y una de las más importantes del sector a nivel mundial, informó este jueves que identificó e interrumpió cinco campañas en línea, ejecutadas por grupos de Rusia, Irán, China e Israel, que utilizaban sus tecnologías de IA generativa para manipular engañosamente la opinión pública en todo el mundo e influir en la geopolítica.
Según The New York Times, actores estatales y empresas privadas de estos países utilizaron sus herramientas generar publicaciones en redes sociales, traducir y editar artículos, escribir titulares y depurar programas informáticos, generalmente para ganar apoyo para campañas políticas.
Un informe de la compañía, al que accedieron varios medios de comunicación, constituye "la primera vez que una importante empresa de IA revela cómo se utilizaron sus herramientas específicas para tal engaño en línea", dijeron investigadores de redes sociales al diario neoyorquino. "El reciente auge de la IA generativa ha planteado dudas sobre cómo la tecnología podría contribuir a la desinformación en línea , especialmente en un año en el que se celebran elecciones importantes en todo el mundo", agregaron.
Ejemplos de lo anterior, citados por la compañía, son el grupo chino Spamouflage, la agrupación rusa Bad Grammar, la iraní Unión Internacional de Medios Virtuales y la empresa israelí Stoic.
En el caso de Spamouflage, que ya había estado antes bajo la lupa de la comunidad internacional, utilizó la herramienta para investigar la actividad en redes sociales y escribir publicaciones en chino, coreano, japonés e inglés, basándose en esos datos.
Bad Grammar, por su parte, utilizó las tecnologías de Open AI para crear un programa capaz de publicar automáticamente en Telegram y, a su vez, generar publicaciones y comentarios tanto en ruso como en inglés, que apuntaban contra EEUU y daban argumentos sobre por qué no debería ayudar más a Ucrania en la guerra.
En tanto, la empresa de campaña política Stoic, de Israel, utilizó las herramientas de OpenAI para generar publicaciones en favor del país en el marco de la guerra en Gaza, que estuvieron dirigidas a Canadá y EEUU, fundamentalmente.
"Los hemos visto generar texto en un volumen mayor y con menos errores de los que estas operaciones han manejado tradicionalmente", dijo Ben Nimmo, líder del equipo de investigaciones de Inteligencia de OpenAI, quien anteriormente trabajó en operaciones de influencia de seguimiento de Meta.
Nimmo destacó que todas estas cuentas fueron eliminadas, a pesar de que "ninguno de estos grupos logró conseguir mucha tracción, las cuentas de redes sociales asociadas con ellos llegaron a pocos usuarios y tenían solo un puñado de seguidores", dijo.
"Este no es momento de complacencia. La historia muestra que operaciones de influencia que durante años no lograron llegar a ninguna parte pueden estallar repentinamente si nadie las busca", agregó.
Además, Nimmo reconoció que es probable que existan otros grupos simulares de los que la empresa no tiene conocimiento. "No se cuántas operaciones hay todavía por ahí. Pero sé que hay mucha gente buscándolas, incluido nuestro equipo", advirtió.
En este contexto, The Washington Post subrayó que, a medida que las herramientas de IA que pueden generar texto, imágenes e incluso videos realistas estén disponibles de manera generalizada, crecen las preocupaciones de los investigadores de desinformación, que sostienen la tesis de que será aún más difícil detectar y responder a información falsa u operaciones de influencia encubiertas en línea.
OpenAI, que muestra su constante preocupación por el uso que hagan las empresas, los gobiernos, los medios y las personas de sus herramientas, incorporó recientemente una nueva herramienta para identificar si una imagen fue creada con su generador de imágenes DALL-E.
La compañía detalló que está desarrollando "nuevos métodos para rastrear contenido y comprobar si fue generado por IA". Entre esos nuevos métodos, OpenAI subrayó un "nuevo clasificador de detección de imágenes —que también utiliza IA— para determinar si la foto fue generada por IA, así como una marca de agua resistente a manipulaciones que puede etiquetar contenido como audio con señales invisibles". La empresa espera que estas marcas de agua sean difíciles de eliminar.
Aunque estos esfuerzos técnicos proporcionan herramientas valiosas para fortalecer las defensas frente a imágenes falsas, OpenAI admite que garantizar la autenticidad del contenido en la práctica demandará un esfuerzo conjunto. "Es necesario que plataformas digitales, creadores de contenido y agentes intermediarios colaboren para mantener los metadatos asociados, lo cual facilitaría a los consumidores finales tener transparencia respecto al origen del contenido", destacó la compañía.