Back to top
Inteligencia artificial

Desde el Pentágono hasta los desaparecidos de Chile, la inteligencia artificial gana terreno en la política

La empresa OpenAI trabaja junto al Gobierno de EEUU en proyectos de ciberseguridad y tratando de prevenir el suicidio de veteranos de guerra.

Washington
El presidente de Chile, Gabriel Boric, inaugurando un evento de tecnología.
El presidente de Chile, Gabriel Boric, inaugurando un evento de tecnología. AFP

La empresa OpenAI, desarrolladora del ChatGPT, reveló esta semana que está colaborando con el Departamento de Defensa de EEUU. Además, detalló los planes que tiene para evitar el uso indebido de sus tecnologías de inteligencia artificial (IA) durante las próximas elecciones presidenciales de 2024.

Según el medio estadounidense especializado en tecnología Ars Technica, OpenAI trabaja junto al Pentágono en proyectos de ciberseguridad y explorando formas de prevenir el suicidio de veteranos. La empresa de IA modificó recientemente sus políticas, permitiendo ciertas aplicaciones militares de su tecnología.

OpenAI eliminó los términos de su acuerdo de servicio que anteriormente bloqueaban el uso de la IA en situaciones "militares y de guerra", pero la compañía aún mantiene la prohibición de que su tecnología se utilice para desarrollar armas o causar daños a la propiedad.

El cambio de política parece alinear más estrechamente a OpenAI con las necesidades de varios departamentos gubernamentales, incluida la posibilidad de prevenir los suicidios de veteranos. "Hemos estado trabajando con el Departamento de Defensa en herramientas de ciberseguridad para un software de código abierto que protege la infraestructura crítica. Hemos explorado si puede ayudar con (la prevención del) suicidio de veteranos", dijo un directivo de la empresa recientemente.

Mientras esto marca un cambio significativo con respecto a la postura original de la compañía, Microsoft Corp., un gran inversor en OpenAI, ya tiene una relación establecida con el Ejército estadounidense a través de varios contratos de software.

Inteligencia artificial y elecciones

Según otro reporte de Ars Technica, OpenAI también hizo públicas sus estrategias para evitar el uso indebido de sus tecnologías en las próximas elecciones presidenciales de EEUU este 2024. La empresa prometió transparencia en el contenido generado por IA y quiere mejorar el acceso a información electoral confiable. OpenIA dijo que está trabajando en un enfoque que implica la aplicación de políticas, la colaboración con socios y el desarrollo de nuevas herramientas destinadas a clasificar los medios generados por IA.

"Proteger la integridad de las elecciones requiere la colaboración de todos los rincones del proceso democrático, y queremos asegurarnos de que nuestra tecnología no se utilice de una manera que pueda socavar este proceso", escribió OpenAI en una publicación de su blog. 

Las iniciativas propuestas por OpenAI incluyen prevenir abusos mediante deepfakes o bots que imitan a candidatos, refinar las políticas de uso y lanzar un sistema de informes para que el público señale posibles abusos. Por ejemplo, la herramienta de generación de imágenes de OpenAI, DALL-E 3, incluye filtros integrados que rechazan solicitudes para crear imágenes de personas reales, incluidos políticos.

El director ejecutivo de la empresa de software Salesforce, Marc Benioff, valoró estas novedades en el sector: "La industria tecnológica está estableciendo protocolos de seguridad y principios de confianza en relación con el software de IA en desarrollo que ha arrasado en el mundo (ChatGPT) para evitar un 'momento Hiroshima'".

De acuerdo al canal de televisión estadounidense CNBC, Benioff dijo hace poco en un panel del Foro Económico Mundial en Davos, Suiza, que "este es un gran momento para la IA". El empresario señaló que "la IA dio un gran salto adelante en los últimos años y no queremos que algo salga realmente mal. Por eso estamos hablando de seguridad y confianza”.

“No queremos tener un momento Hiroshima. Hemos visto que la tecnología iba realmente mal y vimos un Hiroshima. No queremos ver una Hiroshima con la IA. Queremos asegurarnos de que entendemos esto ahora”, concluyó Benioff, quien ha lanzado su propio software de IA generativa, Einstein GPT, para unirse a una carrera global entre desarrolladores de software que incorporan capacidades de IA generativa en sus productos.

En Chile, rastreo de desaparecidos

Por otra parte, países como Chile apelan a esa confianza de la IA al utilizarla en programas tan delicados como el del rastreo de desaparecidos. El Gobierno chileno, encabezado por el presidente, Gabriel Boric, anunció hace unos días que la IA "va a jugar un rol importante en el Plan Nacional de Búsqueda, en la búsqueda de nuestros detenidos desaparecidos”.

“Hay algunos que cuando hablan de IA hablan con miedo y de los riegos, pero nosotros vemos las oportunidades”, dijo el mandatario. 

Según el reporte del medio La Tercera, Boric mencionó los usos que se le puede otorgar a la IA en el campo de la medicina o en desafíos para el país sudamericano como la detección de incendios.

“No es ajena la IA en la importancia de proteger la democracia. Tenemos que pensar también cómo vamos a fortalecer la democracia en un contexto de tremendos cambios, donde el miedo parece instalarse. La IA puede tener aplicaciones en la industria, el transporte, la educación. Tomando los debidos resguardos, la IA va a ser una gran herramienta para Chile y América Latina en el respeto por el medioambiente”, dijo el presidente chileno sobre los otros usos que le piensa dar a la IA.

Más información

Sin comentarios

Necesita crear una cuenta de usuario o iniciar sesión para comentar.