La empresa de Inteligencia Artificial OpenAI, una de las más importantes del sector a nivel mundial, anunció esta semana, a través de un comunicado, que incorporó una nueva herramienta para identificar si una imagen fue creada con su generador de imágenes DALL-E.
La compañía detalló que está desarrollando "nuevos métodos para rastrear contenido y comprobar si fue generado por IA". Este esos nuevos métodos, OpenAI subrayó un "nuevo clasificador de detección de imágenes —que también utiliza IA— para determinar si la foto fue generada por IA, así como una marca de agua resistente a manipulaciones que puede etiquetar contenido como audio con señales invisibles". La empresa espera que estas marcas de agua sean difíciles de eliminar.
"El mundo necesita formas comunes de compartir información sobre cómo se creó el contenido digital. Los estándares pueden ayudar a aclarar cómo se creó el contenido y proporcionar otra información sobre sus orígenes de una manera que sea fácil de reconocer en muchas situaciones, ya sea que el contenido sea la salida sin procesar de una cámara o una creación artística de una herramienta como DALL-E 3", resaltó la compañía.
OpenAI dijo que su nuevo detector podría identificar correctamente el 98,8% de las imágenes creadas por DALL-E 3, la última versión de su generador de imágenes. Pero la compañía destacó que la herramienta no fue diseñada para detectar imágenes producidas por otros generadores populares como Midjourney y Stability.
La compañía anunció, asimismo, que se une al Comité Directivo de C2PA, la Coalición para la Procedencia y Autenticidad del Contenido. Se trata de una especie de "etiqueta nutricional" para imágenes, vídeos, clips de audio y otros archivos que muestra cuándo y cómo fueron producidos o alterados, incluso con IA.
Según OpenAI, las personas aún pueden crear contenido engañoso sin esta información (o pueden eliminarlo), pero no pueden falsificarla ni alterarla fácilmente, lo que la convierte en un recurso importante para generar confianza.
"Para impulsar la adopción y la comprensión de los estándares de procedencia, incluido C2PA, nos unimos a Microsoft para lanzar un fondo de resiliencia social. Este fondo de dos millones de dólares apoyará la educación y la comprensión de la IA, incluso a través de organizaciones como Older Adult Technology Services, IDEA Internacional y Asociación sobre IA", dijo la compañía.
Aunque estos esfuerzos técnicos proporcionan herramientas valiosas para fortalecer las defensas frente a imágenes falsas, OpenAI admite que garantizar la autenticidad del contenido en la práctica demandará un esfuerzo conjunto. "Es necesario que plataformas digitales, creadores de contenido y agentes intermediarios colaboren para mantener los metadatos asociados, lo cual facilitaría a los consumidores finales tener transparencia respecto al origen del contenido", destacó.
En este sentido, asociado a la gestión del contenido digital, OpenAI anunció que está desarrollando Media Manager, una herramienta que permitirá a los creadores y propietarios de contenido indicar qué poseen y especificar cómo quieren que sus obras sean incluidas o excluidas de la investigación y entrenamiento de aprendizaje automático.
"Esto requerirá investigación de vanguardia en aprendizaje automático, para construir una herramienta de este tipo por primera vez y que pueda ayudarnos a identificar textos, imágenes, audio y vídeos con derechos de autor en múltiples fuentes y reflejar las preferencias de los creadores", dijo la empresa.
"Nuestro objetivo es tener la herramienta lista para 2025, y esperamos que establezca un estándar en toda la industria de la IA", concluyó, como evidencia de que la necesidad de regulaciones en el entorno de la Inteligencia Artificial es cada vez más necesario para las personas, la verdad y las sociedades.