Las normas europeas de Inteligencia Artificial líderes en el mundo se enfrentan a un momento de vida o muerte. Son días decisivos, mientras la UE ya aprueba puntos clave. Mientras tanto, Estados Unidos, Reino Unido, China y coaliciones globales como el Grupo de las 7 principales democracias, se han sumado a la carrera para trazar barreras para la tecnología en rápido desarrollo. Los 3 puntos claves para entender qué sucede.
Créditos: AP, Infobae, EFE, El País, El Tiempo Latino
Este jueves, tras 22 horas de negociación para intentar pactar la ley de inteligencia artificial, las instituciones de la Unión Europea (UE) decidieron hacer una pausa y retomar de nuevo las conversaciones el viernes, tras haber logrado avances en algunos de los puntos trascendentales de la normativa.
El Consejo de la UE, el Parlamento y la Comisión Europea han alcanzado ya un principio de acuerdo sobre las normas para regular los modelos fundacionales en los que se basan los sistemas como ChatGPT.
1. Los procesos para legislar, fueron mucho más lentos que la evolución de la IA
Cuando Bruselas propuso la ley en abril de 2021, el sistema ChatGPT de la empresa OpeanAI aún no había surgido y la norma no pensó en regular los modelos fundacionales de inteligencia artificial. Pero desde su estallido el año pasado, la UE ha buscado la manera de incluirlos y éste ha sido uno de los principales puntos de fricción entre las instituciones comunitarias.
Los Estados miembros pretendían que las empresas se comprometiesen con un código voluntario de buenas prácticas para garantizar que los modelos fundacionales no suponen un riesgo para las personas y que los datos que se utilizan para entrenar a la inteligencia artificial no discriminan, por ejemplo, por razones de sexo, raza o religión.
La Eurocámara, en cambio, apostaba por obligar a las empresas a comprobar que los sistemas son seguros, antes de poderlos utilizar en contextos de riesgo, como la sanidad, la justicia o la contratación laboral.
El Gobierno de España se ha marcado entre sus principales objetivos de la presidencia de la UE pactar la ley de inteligencia artificial, la primera de este tipo en Occidente, que pretende regular el uso de la tecnología en función del riesgo que suponga para las personas.
El otro gran punto de fricción en las negociaciones son las excepciones en la normativa para permitir la vigilancia biométrica en tiempo real en espacios públicos.
Los gobiernos europeos quieren que se pueda utilizar para evitar delitos como el terrorismo, el abuso sexual o la protección de infraestructuras críticas, siempre con previa autorización judicial.
La Eurocámara, en cambio, se opone a su uso porque considera que la vigilancia biométrica viola los derechos fundamentales, aunque el ponente de la norma en el Parlamento Europeo, el socialdemócrata Brando Benifei, se abrió ayer a permitirla si existen fuertes garantías para proteger los derechos.
2. Las disputas por la nueva normativa para la Inteligencia Artificial

Sugerida por primera vez en 2019, se esperaba que la Ley de IA de la UE fuera la primera regulación integral de IA del mundo, consolidando aún más la posición del bloque de 27 naciones como pionero de tendencias globales cuando se trata de controlar la industria tecnológica.
Pero el proceso se ha visto estancado por una batalla de último minuto sobre cómo gobernar los sistemas que sustentan los servicios de inteligencia artificial de propósito general como ChatGPT de OpenAI y el chatbot Bard de Google.
Las grandes empresas tecnológicas están presionando contra lo que consideran una regulación excesiva que sofoca la innovación, mientras que los legisladores europeos quieren salvaguardias adicionales para los sistemas de inteligencia artificial de vanguardia que esas empresas están desarrollando.
Mientras tanto, Estados Unidos, Reino Unido, China y coaliciones globales como el Grupo de las 7 principales democracias, se han sumado a la carrera para trazar barreras para la tecnología en rápido desarrollo, subrayadas por las advertencias de investigadores y grupos de derechos humanos sobre los peligros existenciales que la IA generativa representa para la humanidad, así como los riesgos para la vida cotidiana.
3. El asombroso crecimiento de la Inteligencia Artificial

Cuando la Comisión Europea, el brazo ejecutivo de la UE, dio a conocer el borrador en 2021, apenas mencionó los sistemas de inteligencia artificial de propósito general como los chatbots. La propuesta de clasificar los sistemas de IA en cuatro niveles de riesgo (desde mínimo hasta inaceptable) pretendía esencialmente ser una legislación sobre seguridad de productos.
Bruselas quería probar y certificar la información utilizada por los algoritmos que impulsan la IA, de forma muy parecida a los controles de seguridad de los consumidores en cosméticos, automóviles y juguetes.
Eso cambió con el auge de la IA generativa, que despertó asombro al componer música, crear imágenes y escribir ensayos que se asemejaban al trabajo humano. También avivó los temores de que la tecnología pudiera usarse para lanzar ciberataques masivos o crear nuevas armas biológicas.
Los riesgos llevaron a los legisladores de la UE a reforzar la Ley de IA ampliándola a los modelos fundacionales. También conocidos como grandes modelos de lenguaje, estos sistemas se entrenan con grandes cantidades de trabajos escritos e imágenes extraídas de Internet.
Los modelos básicos brindan a los sistemas de IA generativa como ChatGPT la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas utilizando reglas predeterminadas.
El caos del mes pasado en OpenAI, respaldada por Microsoft , que construyó uno de los modelos básicos más famosos, reforzó para algunos líderes europeos los peligros de permitir que unas pocas empresas dominantes de IA se controlen a sí mismas.
Si bien el director ejecutivo Sam Altman fue despedido y rápidamente recontratado , algunos miembros de la junta directiva con profundas reservas sobre los riesgos de seguridad que planteaba la IA se marcharon, lo que indica que la gobernanza corporativa de la IA podría ser víctima de la dinámica de la sala de juntas.
«Al menos ahora está claro» que empresas como OpenAI defienden sus negocios y no el interés público, dijo el comisario europeo Thierry Breton en una conferencia sobre IA en Francia días después del tumulto.