- La Federación de Consumidores y Usuarios CECU acaba de publicar un informe donde recoge medidas concretas para garantizar su efectividad
- Desde agosto de 2026, las evaluaciones de impacto de derechos fundamentales serán obligatorias para ciertos actores y bien hechas podrán frenar sistemas de IA dañinos y proteger a millones de personas
A partir de agosto de 2026, el artículo 27 del Reglamento europeo de Inteligencia Artificial (RIA) obligará a ciertos responsables de despliegue de sistemas de IA de alto riesgo -como entidades financieras, aseguradoras y administraciones públicas- a realizar Evaluaciones de Impacto en Derechos Fundamentales (EIDFs) antes de ponerlos en marcha.
Un nuevo informe elaborado para la Federación de Consumidores y Usuarios CECU, en colaboración con la coalición IA Ciudadana, advierte de que estas evaluaciones podrían convertirse, sin embargo, en meros trámites sin efecto real si no se implementan con garantías suficientes de participación, transparencia y supervisión independiente.
El informe: recomendaciones clave
El informe, titulado “Por una aplicación efectiva del artículo 27 del Reglamento de IA: Reforzando la participación activa en las Evaluaciones de Impacto en Derechos Fundamentales (EIDFs) y garantizando mecanismos eficaces de transparencia y supervisión”, propone una hoja de ruta práctica para que las EIDFs sean efectivas.
Entre sus recomendaciones destacan:
- Participación efectiva de los grupos afectados desde el inicio, con capacidad de influir en las decisiones.
- Transparencia significativa, incluyendo publicación de resultados y planes de mitigación.
- Supervisión independiente y mecanismos de reclamación accesibles.
- Recursos suficientes para asegurar procesos de calidad.
- Evitar malas prácticas observadas en marcos como el RGPD o el DSA.
El informe ha sido desarrollado por investigadoras expertas, en diálogo con expertos académicos, sociedad civil y autoridades independientes, y busca conseguir una implementación justa del RIA en España y en la UE.
Lecciones aprendidas: cuando la IA refuerza la discriminación
Casos como SyRI en Países Bajos o RisCanvi en Cataluña demuestran que, sin un proceso con garantías, transparencia y participación, la IA puede reforzar la discriminación, erosionar la confianza ciudadana y socavar derechos fundamentales. El informe alerta sobre los peligros de repetir los errores de otras evaluaciones de impacto, como las de protección de datos de datos personales, que en muchos casos han sido opacas y poco útiles.
Una oportunidad que España y Europa no pueden perder
La publicación coincide con un momento clave:
-
En julio, la Comisión Europea abrió una consulta pública sobre sistemas de IA de alto riesgo, con preguntas específicas sobre EIDFs, a la que CECU presentó recomendaciones.
-
En España, la futura Ley para el buen uso y la gobernanza de la IA está pendiente de aprobación por el Consejo de Ministros antes de su paso por el Parlamento. CECU subraya que es esencial que esta legislación nacional incorpore las recomendaciones del informe y que las autoridades competentes –AESIA, AEPD, Banco de España, CNMV, etc. – ejerzan una supervisión efectiva.
Anabel Arias, responsable de derechos digitales de CECU y portavoz de IA Ciudadana, afirma que: «Las EIDFs no son una casilla a marcar, sino una herramienta para evitar discriminaciones, exclusiones y daños que ya hemos visto con sistemas automatizados. Una implementación pobre del artículo 27 del RIA sería una oportunidad perdida. Pero una implementación significativa puede sentar las bases de una gobernanza algorítmica en línea con el respeto por los derechos fundamentales. En un contexto europeo marcado por tendencias de desregulación y simplificación, resulta aún más crucial que las EIDFs se mantengan como un instrumento robusto y no se vacíen de contenido, garantizando que la evaluación de impacto en derechos fundamentales sea una práctica seria y efectiva”.
Lee más aquí: