Luego de largos meses de debate, la Unión Europea acordó su propia legislación sobre Inteligencia Artificial. Conoce sus principales características. ¿Qué incidencia tendrá en el resto del mundo? ¿Cuáles son los planes de EE.UU y China?
Crédito: AP y Euronews

Finalmente, funcionarios de la Unión Europea llegaron a un acuerdo sobre reglas líderes a nivel mundial destinadas a regir el uso de inteligencia artificial en el bloque de 27 naciones.
La Ley de IA de Europa adoptará un “enfoque basado en el riesgo” para los productos o servicios que utilizan inteligencia artificial y se centra en regular los usos de la IA, en vez de la tecnología.
La legislación está diseñada para proteger la democracia, el estado de derecho y los derechos fundamentales como la libertad de expresión, al mismo tiempo que fomenta la inversión y la innovación.
De esta forma, cuanto más riesgosa es una aplicación de IA, más estrictas son las reglas. Los sistemas de alto riesgo, como los dispositivos médicos, enfrentan requisitos más estrictos, como el uso de datos de alta calidad y el suministro de información clara a los usuarios.
Como contrapartida, aquellos que plantean un riesgo limitado, como los sistemas de recomendación de contenidos o los filtros de spam, tendrían que seguir sólo reglas ligeras, como revelar que funcionan con IA.
En tanto, quedan prohibidos algunos usos de la IA cuando se considera que plantean un riesgo inaceptable, como los sistemas de puntuación social que rigen el comportamiento de las personas, algunos tipos de vigilancia policial predictiva y sistemas de reconocimiento de emociones en las escuelas y los lugares de trabajo.
De esta forma, la Policía no podrá escanear el rostro de las personas en público utilizando sistemas remotos de “identificación biométrica” impulsados por inteligencia artificial, excepto en el caso de delitos graves como secuestro o terrorismo.
La Ley de IA no entrará en vigor hasta dos años después de la aprobación final de los legisladores europeos, prevista en una votación aprobada a principios de 2024. Las infracciones podrían generar multas de hasta 35 millones de euros (38 millones de dólares) o el 7% del total global de la ganancia de una empresa.
¿Cómo impactará esta ley de Europa en el resto del mundo?

Los expertos señalan que, si bien esta ley se aplicará a los casi 450 millones de residentes de la Unión Europea, su impacto podría sentirse mucho más allá debido al papel de liderazgo de Bruselas en la elaboración de reglas que actúan como un estándar global.
Mientras muchos otros países están averiguando si pueden controlar la IA y cómo hacerlo, las regulaciones integrales de la UE están preparadas para servir como modelo .
«La Ley de IA es la primera regulación de IA integral, horizontal y vinculante del mundo que no sólo cambiará las reglas del juego en Europa, sino que probablemente contribuirá significativamente al impulso global para regular la IA en todas las jurisdicciones», dijo Anu Bradford, profesora de la Facultad de Derecho de Columbia.
Incluso lo que la ley no hace podría tener repercusiones globales, dijeron grupos de derechos humanos.
Al no prohibir totalmente el reconocimiento facial en vivo, Bruselas ha “dado luz verde a la vigilancia digital distópica en los 27 Estados miembros de la UE, sentando un precedente devastador a nivel mundial”, afirmó Amnistía Internacional.
La prohibición parcial es “una oportunidad enormemente perdida para detener y prevenir daños colosales a los derechos humanos, el espacio civil y el Estado de derecho que ya están amenazados en la UE”.
Amnistía también denunció que los legisladores no prohibieron la exportación de tecnologías de inteligencia artificial que pueden dañar los derechos humanos, incluido su uso en la puntuación social, algo que China hace para recompensar la obediencia al Estado mediante la vigilancia.
¿Qué hacen Estados Unidos y China para regular la Inteligencia Artificial?

Las dos principales potencias de IA del mundo, Estados Unidos y China, también han comenzado a aplicar sus propias reglas.
El presidente de Estados Unidos, Joe Biden, firmó en octubre una amplia orden ejecutiva sobre IA, que se espera que se vea reforzada por legislación y acuerdos globales.
Requiere que los principales desarrolladores de IA compartan los resultados de las pruebas de seguridad y otra información con el gobierno. Las agencias crearán estándares para garantizar que las herramientas de IA sean seguras antes de su lanzamiento público y publicarán directrices para etiquetar el contenido generado por IA.
La orden de Biden se basa en compromisos voluntarios asumidos anteriormente por empresas de tecnología, incluidas Amazon, Google, Meta y Microsoft, para garantizar que sus productos sean seguros antes de su lanzamiento.
Mientras tanto, China ha publicado “medidas provisionales” para gestionar la IA generativa, que se aplica a textos, imágenes, audio, vídeos y otros contenidos generados para personas dentro de China.
El presidente Xi Jinping también propuso una Iniciativa Global de Gobernanza de la IA, pidiendo un entorno abierto y justo para el desarrollo de la IA.