Bit a bit: historias de blockchain e inteligencia artificial

La Inteligencia Artificial: un rompecabezas legal a nivel mundial

Si algo he aprendido en los últimos años siguiendo la evolución de la inteligencia artificial (IA) es que su avance es tan rápido que los legisladores, en comparación, parecen moverse en cámara lenta. Mientras las grandes empresas tecnológicas lanzan modelos cada vez más sofisticados, los gobiernos de todo el mundo luchan por establecer regulaciones que equilibren la innovación con la protección de los derechos fundamentales. El problema es que esa regulación no es uniforme, ni siquiera coherente. Lo que tenemos hoy es un mosaico de leyes dispersas, con enfoques diferentes y, en muchos casos, contradictorios.

Lo paradójico es que la IA es una tecnología global, pero la respuesta de los países es local. Un algoritmo entrenado en China puede operar en Europa, una empresa con sede en Estados Unidos puede ofrecer servicios en Brasil, y una startup canadiense puede utilizar servidores en Corea del Sur. En este escenario, la fragmentación regulatoria se convierte en una pesadilla para las empresas y en un reto para la gobernanza global.

El Consejo de Europa, en 2024, dio un primer paso con el primer tratado internacional sobre IA. Sin embargo, su impacto es limitado: permite a los Estados firmantes un amplio margen de discreción y sus mecanismos de aplicación no son precisamente robustos. La Unión Europea, por su parte, busca liderar con su Reglamento de IA, que impone obligaciones según el nivel de riesgo y contempla sanciones millonarias para quienes incumplan. Mientras tanto, Estados Unidos sigue sin una legislación federal clara, dejando que cada estado imponga sus propias reglas, lo que genera un laberinto normativo dentro de su propio territorio.

China, Corea del Sur, Brasil y Canadá también han avanzado en nuevas leyes, pero cada uno con enfoques distintos: transparencia, seguridad, deepfakes, protección de datos… No hay una estrategia global ni una verdadera cooperación internacional. ¿El resultado? Incertidumbre para las empresas, inseguridad jurídica y una regulación que, en muchos casos, llega tarde y mal.

El Consejo de Europa, una organización distinta a la Unión Europea pero con influencia en 46 países, aprobó en 2024 el primer tratado internacional sobre IA. La intención era buena: establecer un marco común para regular la inteligencia artificial, con énfasis en derechos humanos, democracia y Estado de derecho. Pero cuando uno revisa los detalles, la realidad es que se trata de un acuerdo lleno de ambigüedades y sin dientes.

El tratado permite que los Estados firmantes apliquen sus propias reglas de manera flexible, lo que significa que en la práctica cada país podrá interpretarlo a su conveniencia. Además, los mecanismos de aplicación son débiles: no hay un sistema claro de sanciones ni una autoridad supranacional con capacidad de imponer normas.

Esto significa que, aunque es un paso simbólicamente importante, en términos prácticos poco cambiará. Las grandes potencias seguirán operando con sus propias reglas, y las empresas deberán lidiar con normativas contradictorias dependiendo de dónde ofrezcan sus servicios.

Si hay un bloque que ha tomado la regulación de la IA en serio, es la Unión Europea. Su Reglamento de IA es, hasta la fecha, la legislación más ambiciosa del mundo en este campo. Basado en un enfoque de riesgo, clasifica los sistemas de IA en cuatro niveles:

  • Riesgo mínimo: Aplicaciones como filtros de spam o sistemas de recomendación de contenido, que no tienen restricciones significativas.
  • Riesgo limitado: Sistemas que pueden afectar derechos fundamentales, como chatbots avanzados o sistemas de verificación de identidad. Se exige transparencia.
  • Riesgo alto: IA utilizada en ámbitos críticos como la educación, el empleo, la salud o la justicia. Se requieren auditorías, supervisión humana y medidas de seguridad estrictas.
  • Riesgo inaceptable: Aplicaciones consideradas una amenaza para los derechos humanos, como el reconocimiento facial en tiempo real para vigilancia masiva. Están prohibidas.

Las sanciones no son poca cosa: las empresas que incumplan podrían enfrentar multas de hasta 35 millones de euros o el 7% de su facturación anual.

El problema de este enfoque es que, aunque es detallado y ambicioso, podría terminar sofocando la innovación en Europa. Muchas startups se enfrentan a costos regulatorios elevados y, en algunos casos, prefieren operar fuera de la UE para evitar estas restricciones.

Además, mientras la UE impone reglas estrictas, otras regiones del mundo ofrecen un entorno más laxo. Empresas que desarrollan IA podrían optar por establecerse en jurisdicciones con regulaciones más flexibles, lo que podría dejar a Europa en desventaja en la carrera por la IA.

Mientras Europa avanza con una regulación centralizada, Estados Unidos sigue sin una ley federal clara sobre IA. En su lugar, cada estado ha tomado su propio camino, creando un paisaje regulatorio caótico.

Por ejemplo, California ha sido uno de los estados más proactivos en la regulación de IA, con leyes sobre transparencia en el uso de bots y protección de datos. Por otro lado, Colorado ha implementado regulaciones enfocadas en la equidad algorítmica y la protección contra sesgos.

El resultado es que una empresa de IA que opere en EE.UU. debe revisar caso por caso las reglas de cada estado. Para las grandes tecnológicas, esto puede ser manejable, pero para startups y medianas empresas, la falta de un marco único crea un entorno de incertidumbre y barreras de entrada.

Fuera de Europa y EE.UU., otros países también han avanzado en la regulación de IA, pero con enfoques muy específicos.

  • China ha centrado su regulación en la transparencia y el control estatal, con reglas estrictas para los modelos de IA generativa y un fuerte énfasis en la censura de contenidos.
  • Corea del Sur ha puesto el foco en la seguridad y la fiabilidad de los modelos de IA, especialmente en aplicaciones críticas.
  • Brasil ha desarrollado leyes enfocadas en la protección contra deepfakes y la manipulación digital, dado el impacto que estos han tenido en su escenario político.
  • Canadá ha trabajado en regulaciones de ética y responsabilidad en IA, con énfasis en la auditoría y supervisión de modelos.

Cada país ha identificado sus propios riesgos y ha regulado en consecuencia, pero la falta de una coordinación global significa que no hay un estándar único que las empresas puedan seguir.

Para las empresas que desarrollan IA, este mosaico regulatorio es un dolor de cabeza. Cada mercado tiene reglas diferentes, lo que obliga a adaptar productos y servicios a cada jurisdicción. Esto aumenta costos, frena la innovación y genera inseguridad jurídica.

Al final, la fragmentación regulatoria es un problema para todos:

  • Los gobiernos se enfrentan a una tecnología que evoluciona más rápido de lo que pueden regular.
  • Las empresas deben navegar en un mar de normativas contradictorias.
  • Los ciudadanos pueden quedar desprotegidos ante usos abusivos de la IA en lugares donde las reglas son laxas.

Si la IA es global, ¿por qué la regulación sigue siendo local? La falta de coordinación es el mayor obstáculo para un futuro donde la IA beneficie a todos sin convertirse en una herramienta de abuso o desigualdad. Mientras no exista un consenso internacional sólido, seguiremos viendo un mundo donde la IA avanza a toda velocidad, mientras la regulación intenta alcanzarla con pasos torpes y descoordinados.