Hoy ha entrado finalmente en vigor el nuevo Reglamento de Inteligencia Artificial (AI Act), una medida legislativa destinada a regular el desarrollo y uso de la inteligencia artificial (IA) en la Unión Europea. Este hito implica que tanto los Estados Miembro como las empresas que desarrollan y venden esta tecnología deben prepararse para cumplir con estas nuevas reglas. Si no lo hacen, podrían enfrentarse a sanciones significativas al desarrollar, vender y usar sistemas de IA riesgosos en la UE.
Sin embargo, es importante destacar que la entrada en vigor no implica que sus reglas pasen a ser obligatorias, ya que la norma prevé una aplicación gradual que llega hasta el 2030. Lo primero que pasará a ser obligatorio es el listado de prácticas prohibidas (el 1 de febrero de 2025).
El Reglamento de IA tiene un enfoque de riesgo y reconoce cuatro categorías: (i) prohibiciones o riesgo inaceptable como, por ejemplo, la calificación social, (ii) alto riesgo, por ejemplo, sistemas que se utilicen para la puntuación crediticia o el acceso a determinados seguros; (iii) riego medio: por ejemplo, chatbots y (iv) riesgo bajo como, por ejemplo, un filtro de correo spam (sobre los que no impone ninguna obligación. Por fuera de estos casos y tras es lanzamiento de ChatGPT, se incorporó a la ley una “sub-pirámide” para regular los modelos de propósito general con o sin riesgo sistémico (imponiendo diferentes obligaciones).
Desde CECU ya hemos manifestado que el Reglamento no protege adecuadamente a las personas consumidoras, por cuanto presenta varias lagunas y fallos. En efecto, el alcance de la norma es muy limitado porque adopta una definición de IA de un alto nivel técnico, que deja afuera a la mayoría de los algoritmos que se utilizan hoy en día. Por ejemplo, el software Bosco, que determina quién tiene acceso a bono social de electricidad y sobre el que existe una batalla legal para acceder a su código fuente, no entra dentro de esta definición. A su vez, el referido enfoque “de riesgo” deja fuera a los algoritmos que afectan diariamente a las personas consumidoras, como son los de perfilado y personalización en línea o los sistemas de recomendación de las redes sociales. Por su parte, se establecen reglas insuficientes y confusas para los modelos de propósito general, sistemas de IA de propósito general (como el modelo GPT que da base a ChatGPT).