Back to top
Tecnología

Retos de la Inteligencia Artificial: ¿Cómo se regula algo que ayuda, pero también perjudica a las personas?

El Gobierno de EEUU publica una orden ejecutiva que regula a las empresas del sector y monitorea los nuevos adelantos.

Washington
El presidente de EEUU, Joe Biden.
El presidente de EEUU, Joe Biden. The New York Times

El principal reto de los gobiernos en cuanto a la inteligencia artificial (IA) radica en cómo regularla porque es una tecnología que puede ayudar, pero también perjudicar a las personas. La IA es algo que toca a todos los sectores de la economía y cambia a un ritmo tan acelerado que ni siquiera los expertos pueden llevarle el paso, reportó el diario The New York Times.

Si los gobiernos tardan mucho en regular la IA, podrían perder la oportunidad de hacer algo para evitar sus posibles peligros y malos usos. Si reaccionan con demasiada rapidez, corren el riesgo de redactar normas nocivas o perjudiciales, reprimir la innovación o terminar en la misma posición que la Unión Europea. Esta unión de naciones dio a conocer su primera Ley para el sector en 2021, justo antes de la llegada de una ola de nuevas herramientas de IA generativa que volvió obsoleta gran parte de esa legislación.

La actual propuesta de regulación europea, que todavía no se ha aprobado, se modificó posteriormente para incluir parte de la nueva tecnología, pero sigue siendo un poco torpe, según considera The New York Times.

A principios de noviembre, la Casa Blanca anunció su propio proyecto para regir el acelerado mundo de la IA: una orden ejecutiva de amplia aplicación que les impone nuevas normas a las empresas e indica a varias agencias federales que comiencen a establecer salvaguardas en torno a la tecnología.

El Gobierno de Joe Biden, al igual que otros, ha estado bajo gran presión para tomar medidas con respecto a esta tecnología desde finales del año pasado, cuando ChatGPT y otras aplicaciones de IA generativa aparecieron intempestivamente. Las empresas del sector han enviado a sus ejecutivos a presentar testimonios frente al Congreso de EEUU para informarles a los legisladores cuáles son las promesas y los inconvenientes de la IA. Mientras tanto, algunos grupos de activistas han instado al Gobierno federal a tomar medidas enérgicas para evitar los usos peligrosos de la IA, como la fabricación de nuevas ciberarmas y la generación de imágenes falsas o engañosas por computadora.

Además, en Silicon Valley (sede de muchas compañías de tecnología en la ciudad estadounidense de San Francisco, California) ha estallado una batalla cultural: algunos investigadores y expertos instan a la industria de la IA a bajar el ritmo, mientras que otros desean que aceleren a toda potencia.

La orden ejecutiva del presidente Biden busca una ruta en el punto medio, que permita el desarrollo de la IA sin grandes alteraciones, pero con algunas normas moderadas. En contraste con las redes sociales, tecnología a la que se le permitió crecer sin restricciones durante más de una década, esta orden muestra que el Gobierno de Biden no tiene la menor intención de dejar a la IA pasar desapercibida. La orden ejecutiva íntegra, con más de 100 páginas, parece tener algo casi para todos.

Los interesados en la seguridad de la IA más inquietos —como aquellos que firmaron una carta abierta este año que aseveraba que la IA representa un "riesgo de extinción" semejante a una pandemia o a las armas nucleares— estarán satisfechos al saber que la orden les impone nuevos requisitos a las empresas.

Ahora los fabricantes de los mayores sistemas de IA, como OpenAI y Google, le deberán notificar al Gobierno de EEUU sus pruebas de seguridad y compartir sus resultados antes de lanzar modelos al público.

Estos requisitos se harán valer en virtud de la Ley de Producción para la Defensa, una legislación de 1950 que le otorga al presidente estadounidense autoridad amplia para obligar a las empresas a apoyar acciones consideradas importantes en materia de seguridad nacional. Esto podría darles a estas instrucciones cierta fuerza que no tenían los compromisos voluntarios anteriores del Gobierno relativos a la IA.

Además, la orden les exige a los proveedores de servicios en la nube que les rentan computadoras a los desarrolladores de IA (lista que incluye a Microsoft, Google y Amazon) darle información al Gobierno sobre sus clientes extranjeros. No solo eso, también instruye al Instituto Nacional de Estándares y Tecnología preparar pruebas estandarizadas para medir el desempeño y la seguridad de los modelos de IA.

Por otra parte, las empresas tecnológicas se verán beneficiadas, ya que la orden busca flexibilizar las restricciones migratorias y optimizar el proceso de solicitud de visa para los trabajadores con conocimientos especializados en IA, como parte de un impulso nacional de "talento en IA".

En resumen, la orden ejecutiva parece lograr un equilibrio conveniente entre el pragmatismo y la cautela. En vista de que el Congreso de EEUU no ha aprobado normas integrales aplicables a la IA, parece que será esta orden la salvaguarda más clara que regirá en el futuro próximo.

Más información

Sin comentarios

Necesita crear una cuenta de usuario o iniciar sesión para comentar.