Back to top
Tecnología

Mientras Bruselas y Washington se debaten cómo regularla, la IA continúa su desarrollo

Google presenta Gémini, su tan esperado nuevo software de inteligencia artificial, y dice que supera a sus contrincantes.

Washington
Ilustración sobre la Inteligencia Artificial.
Ilustración sobre la Inteligencia Artificial. The Washington Post

Mientras Google presentó el miércoles su tan esperado nuevo software de inteligencia artificial (IA) afirmando que supera a sus contrincantes, la Unión Europea (UE) y EEUU mantienen divergencias sobre cómo regular la IA, una prioridad creciente para muchos gobiernos de todo el mundo, reportó el diario estadounidense The Washington Post.

Google apuntó directamente al fabricante de ChatGPT, OpenAI, y aseguró que su nueva tecnología, llamada Gemini, es mejor en tareas de matemáticas, codificación y razonamiento que los programas de IA existentes.

Es el último anuncio en un año competitivo para la industria tecnológica, donde gigantes tecnológicos como Microsoft, Google y Meta compitieron con empresas más pequeñas como OpenAI y Anthropic para lanzar productos de IA por los que los consumidores y las empresas pagarán. Esta "carrera armamentista" atrajo la atención de políticos de todo el mundo, que se han esforzado por comprender la tecnología por sí mismos y tratar de establecer regulaciones para ella. A lo largo de este año se ha desatado un debate sobre si la tecnología podría dañar a la humanidad o si es simplemente la próxima ola de innovación que generará entusiasmo e inversión.

Google, cuyos investigadores inventaron muchos de los conceptos informáticos que hicieron posibles los chatbots y generadores de imágenes de IA, se ha encontrado en una situación de desventaja. En noviembre de 2022, OpenAI, que se fundó originalmente para proporcionar un contrapeso al poder de las grandes tecnologías en IA, presentó ChatGPT al mundo. El chatbot captó la atención de la gente por su capacidad para generar conversaciones similares a las humanas y aprobar exámenes profesionales.

Microsoft, el archirrival de Google, llegó a un acuerdo con OpenAI para acceder a su tecnología y comenzó a incorporarla en sus productos. Google respondió con su propio chatbot. Luego OpenAI lanzó un software de IA aún más capaz, llamado GPT4, que ha sido el punto de referencia con el que otras empresas miden su IA desde entonces. Ahora Google ha presentado su respuesta a GPT4: Gemini. El lanzamiento corona un año de frenética actividad para la industria tecnológica.

¿Qué es Gemini?

Gemini es un gran modelo de lenguaje, entrenado con miles de millones de imágenes y oraciones de internet. En una sesión informativa con periodistas, los ejecutivos de Google dijeron que Gemini es capaz de comprender problemas matemáticos, descomponerlos y brindar consejos sobre cómo resolverlos.

Debido a que los programas de IA ingieren datos de internet y desarrollan una comprensión interna de cómo los diferentes conceptos y palabras se conectan entre sí, son buenos para producir oraciones, pero pueden tener dificultades para resolver problemas de razonamiento o matemáticos. Gemini también puede recibir instrucciones que vienen en forma de videos, imágenes o comandos de voz, además de entradas de texto, algo que pocos modelos de IA pueden hacer.

Es difícil decir si Gemini es realmente el nuevo líder en capacidad de IA. La calidad de las respuestas de la IA puede variar mucho y Gemini, al igual que otros modelos de IA, a menudo fabrica información falsa y la hace pasar como un hecho. Los investigadores han criticado puntos de referencia como los que utilizó Google, señalando que no son pruebas perfectas de capacidad o inteligencia.

El chatbot Bing de Microsoft, lanzado en febrero, fue promocionado por la compañía como una herramienta que cambiaría la forma en que las personas encuentran información en línea. Pero el robot a menudo inventaba respuestas falsas, algo que reducía su utilidad para ayudar a las personas a encontrar buena información en internet. También comenzó a comportarse de manera desquiciada en algunos casos, acosando a los usuarios y diciendo que su verdadero nombre era Sydney. Aún así, la agresiva incursión de Microsoft en la IA empujó a Google a lanzar sus propias herramientas, alterando la política de larga data de la compañía de lanzar lentamente nuevas herramientas después de meses o años de pruebas.

En marzo, Google mostró su propio chatbot, llamado Bard. A diferencia de Microsoft, Google no incluyó a Bard directamente en sus resultados de búsqueda de inmediato, y calificó la herramienta de "experimento", aunque aun así la lanzó a millones de sus clientes. Desde entonces, Google ha integrado constantemente Bard con más productos, incluidos YouTube, Gmail y Google Docs. La compañía también ha estado mostrando respuestas generadas por IA en los resultados de búsqueda de algunos usuarios, provocando conmociones en la industria editorial de internet, que ha criticado a Google por entrenar su IA en noticias y blogs protegidos por derechos de autor.

Mientras continúa esa escalada en el desarrollo de la IA, las autoridades de la UE en Bruselas llevan meses en negociaciones para llegar a un acuerdo sobre la ley más ambiciosa del mundo en materia de IA. Al otro lado del Atlántico, senadores estadounidenses señalaron que el Congreso de ese país está adoptando un enfoque divergente al de la UE sobre la IA. En EEUU preocupa que el enfoque del bloque comunitario podría ser severo y correr el riesgo de alienar a los desarrolladores de IA.

El Congreso de EEUU está muy por detrás de sus homólogos en Bruselas, donde se propuso por primera vez un marco para regular la IA en 2021. Pero después de años de trabajo, el futuro de la legislación sobre IA de la UE sigue siendo incierto en medio de un bombardeo de lobbies y la oposición de los principales países de la UE: Francia, Alemania e Italia. El sábado el bloque comunitario logró el consenso en torno a un borrador que materializa los principales temores de EEUU y las empresas del sector: Europa regulará desde los software inteligentes que recopilan información de los consumidores, hasta el reconocimiento facial que se realiza con sistemas de videovigilancia.

Después de más de medio año de trabajo sobre la política de IA, el líder de la mayoría del Senado de EEUU, Charles E. Schumer, dijo que el grupo bipartidista estaba "empezando a trabajar realmente en la legislación", aunque ofreció pocos detalles sobre qué incluiría el proyecto de ley.

El senador Mike Rounds, miembro del grupo de trabajo bipartidista que Schumer reunió para elaborar la política de IA, dijo que los senadores están siguiendo un enfoque "basado en incentivos" para retener a los desarrolladores de IA en EEUU.

El proyecto de ley de la UE, que podría materializarse en 2026, adopta en gran medida un enfoque "basado en el riesgo" para limitar los usos de las aplicaciones de IA en función de cuán peligrosas predicen los legisladores que podrían ser.

Más información

1 comentario

Necesita crear una cuenta de usuario o iniciar sesión para comentar.

Todas las tecnologías tienen dos facetas, una positiva y una negativa, según la aplicación que se le dé y según quiénes las usen. La IA será beneficioso en la medicina, pues ayudará a salvar vidas, como también a la regeneración de órganos como hígados, riñones y hasta brazos y piernas. En cambio, será un gran peligro usada por un país terrorista como Cuba, pues ayudará a confeccionar algoritmos para destruir sociedades. Es preocupante que haya cubanos enviados por la mafia cubana a China a hacer estudios de IA. Sabemos que en un país terrorista nada bueno hará la IA.