La inteligencia artificial dejó de ser ciencia ficción para convertirse en parte de nuestra vida diaria. Pero, ¿podemos aprovechar su potencial sin perder el control? Descubre los riesgos, beneficios y cómo los gobiernos lidian con esta revolución tecnológica. ¿Estamos realmente preparados para este cambio?
Por Dr. Héctor Cárdenas Suárez, Presidente del Consejo Mexicano de Asuntos Internacionales, Profesor de la práctica de las políticas públicas, Universidad de California Berkeley, Presidente de The Ergo Group.
La inteligencia artificial (IA) dejó de ser un concepto de ciencia ficción para convertirse en una de las fuerzas más transformadoras de nuestra época. Hoy, la IA está redefiniendo industrias, alterando modelos de negocio y sacudiendo las bases de la competitividad global.
ChatGPT y otras aplicaciones de inteligencia artificial generativa (IAG) han despertado interés generalizado, pero se trata sólo de una variante, entre muchas de la inteligencia artificial. El reconocimiento de imágenes, algoritmos que optimizan procesos, sensores inteligentes, herramientas que toman decisiones automáticamente con base en datos complejos, la IA está en todas partes revolucionando los negocios y nuestras vidas.
Pero también está generando una ansiedad creciente entre gobiernos, que buscan regular este fenómeno de maneras que, en algunos casos, podrían acabar entorpeciendo más que ayudando.
A continuación exploraremos dos grandes temas: primero, cómo la IA está transformando sectores clave que afectan nuestra vida cotidiana y la competitividad de los países, y segundo, cómo los gobiernos están reaccionando —o sobrerreaccionando— con propuestas regulatorias que buscan mitigar los riesgos.
La IA como motor de competitividad
Uno de los mayores impactos de la IA es su capacidad para mejorar la eficiencia, reducir costos y aumentar la productividad. Esto tiene enormes implicaciones para la competitividad económica, tanto a nivel empresarial como nacional. Los países que adopten y aprovechen la IA de manera efectiva estarán mejor posicionados para liderar en sectores clave como la medicina, el transporte, la educación y hasta la seguridad pública.
Pero, ¿cómo se traduce esto en la práctica?
De doctores a algoritmos
Imaginemos que te duele la espalda. Vas al médico y te ordenan una resonancia magnética, así como otros exámenes de rutina. El médico, por más experto que sea, tiene sus límites: puede cansarse, distraerse o pasar por alto algún detalle. Aquí entra la IA.
Algoritmos de diagnóstico pueden analizar miles de imágenes médicas en segundos, cruzar esa información con los demás análisis realizados y detectar patrones que a un ser humano podrían escapársele. Esto no solo reduce los errores médicos, sino que democratiza el acceso a diagnósticos de alta precisión, especialmente en lugares donde los especialistas son escasos.
Estudios recientes han demostrado que con el uso de IA se puede diagnosticar el desarrollo de cáncer de mama cinco años antes que con métodos tradicionales. Se trata de una intervención que puede salvar miles de vidas de mujeres al año.
¿Autopiloto o piloto automático?
¿Recuerdas cuando los autos autónomos eran algo sacado de «Los Supersónicos?» Bueno, ya están aquí. Aunque todavía hay fallos (y anécdotas de autos que se detienen en medio de la calle porque “vieron” una sombra sospechosa), los vehículos autónomos están destinados a revolucionar la movilidad urbana.
Países como China y Estados Unidos están invirtiendo enormes recursos en estas tecnologías, porque saben que quien controle la industria del transporte autónomo no solo controlará el futuro de la movilidad, sino también el de sectores colaterales como la logística, el comercio electrónico y el turismo.
El uso de la IA para los vehículos autónomos no se limita al transporte particular, los impactos más fuertes se esperan en el transporte de carga con camiones eléctricos autónomos. Además de los efectos sobre la eficiencia en el transporte de carga, esta transformación podría reducir accidentes y miles de muertes al año.
¿Regular o no regular? Esa es la cuestión
El surgimiento de la IA ha generado un alto grado de preocupación en diversos sectores.
Para algunos, enfrentamos un riesgo existencial si la IA llega a un nivel de desarrollo que se conoce como “inteligencia artificial general” que significa una IA que para efectos prácticos actúa como si fuera un humano, tomando decisiones por sí misma e incluso con la capacidad de programar otras inteligencias artificiales.
Para otros, los riesgos son más inmediatos y tienen que ver con la protección de empleos, de la privacidad y la prevención de la discriminación. Sin embargo, muchos debates actuales sobre regulación entre actores políticos parecen partir de visiones demasiado simplistas.
Es lógico que los gobiernos quieran proteger a sus ciudadanos de los riesgos potenciales de la IA. Pero regular en exceso o mal, puede sofocar la innovación y hacer que los beneficios de la IA se pierdan en un mar de burocracia.
Los riesgos reales: IA en decisiones que afectan nuestras vidas
Cuando hablamos de regular la IA, abarcamos un muy amplio espectro de tecnologías que se pueden usar para muy distintos usos. Lo que realmente nos debería preocupar son los usos específicos que pueden generar riesgos significativos. Un ejemplo clásico es el uso de la IA en la aplicación de la ley.
Imaginen un sistema de reconocimiento facial que identifique a sospechosos en una multitud. Suena bien en teoría, pero en la práctica puede perpetuar sesgos y errores, llevando a detenciones injustas.
Otro ejemplo es el uso de algoritmos en decisiones de crédito. Ya son muchas las empresas que utilizan IA para evaluar quién califica para un préstamo. El problema es que estos algoritmos pueden reproducir prejuicios históricos, negando acceso a recursos a ciertas personas basándose en patrones que, en muchos casos, ni siquiera los programadores entienden.
Y no hablemos de los sistemas de IA que se proponen para decisiones judiciales o para evaluar el riesgo de reincidencia criminal. ¿Queremos realmente que un algoritmo decida si alguien merece libertad condicional? En estos casos, la regulación parece esencial.
Pero cuidado, porque se ha demostrado contundentemente que las decisiones tomadas por seres humanos en estos mismos contextos están sujetas a errores y sesgos que en muchos casos son mayores que los que se han encontrado en algoritmos automatizados.
Entonces, el tema de la regulación debe consistir en sopesar los riesgos comparativos entre mantener procesos de toma de decisiones humanos y transitar hacia procesos automatizados. Y claro está, seguir mejorando la calidad de la información que entra a los algoritmos para que estos tengan menos sesgos.
El punto es que hay que encontrar mecanismos para regular la aplicación de IA en áreas sensibles de tal forma que mejoremos los resultados y reduzcamos los sesgos y los errores en comparación con el muy imperfecto desempeño humano.
¡Dejen en paz a los Chatbots!
Pero no todo necesita o puede ser regulado. Los sistemas de recomendación que nos sugieren series en Netflix o playlists en Spotify difícilmente representan un riesgo para la humanidad.
Aunque es cierto que al orientar la información que consumimos con base en algoritmos que privilegian la replicación de nuestras preferencias y comportamientos, como lo hacen Instagram y TikTok, generamos burbujas de información que tienden a polarizar a la sociedad.
Pero regular estos usos de la IA es extraordinariamente complejo, y quién diga que sabe cómo reducir los efectos negativos mediante regulación, está mintiendo.
Más que regulación, me parece que necesitamos emprender conversaciones amplias dentro de la sociedad, en las escuelas y en las familias sobre cómo queremos vivir.
Algunas propuestas regulatorias incluyen requerimientos tan amplios que hasta un traductor automático podría verse afectado. ¿De verdad queremos burocratizar algo tan cotidiano como usar Google Translate para entender un menú en otro idioma?
Regulación basada en riesgos
Entonces, ¿cómo encontramos un equilibrio?
La clave está en adoptar un enfoque de regulación basado en riesgos. Esto significa enfocarnos en los casos de uso de la IA que pueden causar daño significativo, y dejar que otros usos sigan evolucionando sin interferencias innecesarias.
Por ejemplo:
IA en la guerra
Regular muy de cerca el uso de algoritmos en los armamentos y en los sistemas que controlan armas de alto potencial destructivo.
IA en salud
Regular para asegurar que los algoritmos médicos sean precisos y no discriminatorios.
IA en decisiones legales o financieras
Regular para garantizar transparencia y evitar, lo más posible la discriminación injustificada.
IA en entretenimiento o recomendaciones de consumo
No regular, porque el impacto es mínimo. Este enfoque también permite que la regulación evolucione a medida que surgen nuevas aplicaciones y riesgos. No tiene sentido escribir reglas rígidas para tecnologías que aún están en desarrollo.
¿Competencia o regulación? Ambas, pero con cabeza
La IA es una herramienta poderosa que puede mejorar nuestras vidas de maneras inimaginables, pero también plantea riesgos que no podemos ignorar. Sin embargo, no todas las aplicaciones de IA son peligrosas, y no todas necesitan regulación.
Si queremos que nuestros países sean competitivos en esta nueva era, necesitamos fomentar la innovación, no ahogarla con burocracia. Así que reguladores, tomen nota: enfoquémonos en los riesgos reales, pero dejemos que la IA siga haciendo lo que mejor sabe hacer —innovar y sorprendernos— sin ponerle palos en las ruedas.