Buscar
Buscar
Cerrar este cuadro de búsqueda.

Comunicación

CECU apoya algunas de las mejoras introducidas hoy en el Reglamento Europeo de Inteligencia Artificial para proteger a las personas consumidoras

  • La Federación de Consumidores y Usuarios CECU valora que los Comités principales del Parlamento Europeo quieran reforzar las protecciones para las personas consumidoras en Reglamento de IA. El texto aprobado hoy mejora la propuesta de la Comisión y la orientación general de los Estados miembros adoptada el pasado diciembre 

Hoy tuvo lugar la tan esperada votación de los Comités del Parlamento Europeo encargados del Reglamento de Inteligencia Artificial (Reglamento de IA o AI Act), que intenta ser la primera ley del mundo en regular la inteligencia artificial. CECU valora positivamente el paso dado hoy para la mejora del reglamento, si bien muestra su preocupación por la ausencia de prohibición de algunos sistemas de reconocimiento de emociones y sus riesgos para las personas consumidoras. 

Los Comités IMCO y LIBE (de Mercado Interior y Protección del Consumidor, de Libertades Civiles, Justicia y Asuntos de Interior, respectivamente) votaron esta mañana los compromisos de enmiendas, que contenían importantes previsiones respecto de muchos de los reclamos que se vienen formulando desde la sociedad civil. Más aún, si se tiene en cuenta que, desde el lado del Consejo de la UE, los Estados Miembros no fomentaron el reconocimiento de derechos básicos frente a los sistemas de IA.  

Esta votación iba tener lugar a fines del año pasado o principios del corriente, pero los trabajos en el Parlamento se vieron demorados, entre otras cuestiones, por el lanzamiento al público de sistemas de IA generativa, como ChatGPT, que ni siquiera se encontraban contemplados en la propuesta original de la Comisión Europea (realizada en abril de 2021). Sobre este tema es importante destacar que los europarlamentarios han acordado someter la IA generativa a reglas específicas, como obligar a los desarrolladores de IA a identificar, reducir y mitigar los riesgos para la salud, la seguridad y los derechos fundamentales antes de colocar el sistema de IA en el mercado. 

En cuanto a las mejoras para las personas consumidoras que han introducido hoy los europarlamentarios, desde CECU destacamos las siguientes:   

  • Se ha ampliado el listado de prácticas prohibidas, habiéndose incorporado expresamente la prohibición del uso de identificación biométrica por parte de autoridades públicas y entidades privadas en espacios de acceso público, tanto en tiempo real como “ex post” (aunque lamentamos que esta última contenga una excepción). Estos sistemas no tienen cabida es nuestra sociedad, son muy intrusivos y restringen desproporcionadamente nuestros derechos fundamentales. Asimismo, se prohíbe la calificación social por parte de entidades públicas y privadas. 
  • Se han reconocido derechos en favor de las personas consumidoras, como el derecho a presentar una reclamación ante autoridades públicas, el derecho a acceder a un recurso judicial, el derecho a solicitar reparaciones o medidas cautelares colectivas y el derecho a ser informados cuando se está sujeto a una decisión de un sistema de IA de alto riesgo. Asimismo, se ha introducido la obligación de realizar una evaluación de impacto sobre derechos fundamentales de manera previa a poner en funcionamiento un sistema de alto riesgo.  
  • Se ha ampliado el listado de sistemas de IA alto riesgo (aquellos sobre los que recaen la mayoría de las obligaciones del Reglamento), incorporando los sistemas de recomendación utilizados por grandes plataformas (según se encuentran definidas en la Ley de Servicios Digitales) y algunos sistemas que se utilicen en el sector de seguros. 

Sin embargo, hay cuestiones que desde CECU lamentablemente consideramos negativas:  

  • Se ha adoptado una definición limitada de qué se entiende por sistema de IA, en comparación con la propuesta original de la Comisión. 
  • Se ha debilitado la clasificación de sistemas de alto riesgo. Según la propuesta de la Comisión, determinados sistemas de IA son considerados automáticamente de alto riesgo. Sin embargo, el texto de los Comités permite que las empresas o las autoridades evalúen por sí mismas si su sistema califica como de alto riesgo o no. Esto podría resultar fácilmente en evaluaciones erróneas sobre si un sistema es de alto riesgo y daría a los desarrolladores demasiada discreción para decidir ello. Además, los comités no han presionado para que un tercero certifique si el sistema se ajusta o no al Reglamento.  
  • No se prohíbe el reconocimiento de emociones cuando se usa en las personas consumidoras, lo que puede conducir a graves intrusiones en la privacidad y afectar la capacidad de tomar decisiones autónomas. Más, si se tiene en cuenta que estos sistemas carecen de evidencia científicas certeras.  
  • Los principios aplicables a todos los sistemas de IA independientemente del nivel de riesgo, que se vienen pidiendo desde la sociedad civil, se reconocen solo como voluntarios, lo que limitaría su aplicación efectiva. 

Próximos pasos: Se espera que el Parlamento vote en plenario en junio. Luego, empezarán las negociaciones en trílogo entre el Parlamento y los Estados miembros para determinar el texto final. Se espera que se llegue a acuerdo durante la próxima Presidencia española del Consejo de la UE. De ahí que es importante que el Gobierno español se proponga conseguir el texto que mejor proteja los derechos fundamentales de las personas. 

 Anabel Arias, experta en derechos digitales de CECU, sostiene que: “La postura de los Comités ha mejorado en muchos aspectos tanto la propuesta original como la orientación general del Consejo. A pesar de ello, lamentamos que haya rebajado la aplicabilidad del reglamento al limitar la definición de sistemas de IA e introducir limitaciones adicionales para clasificar a los sistemas de alto riesgo, lo podría permitir que los operadores de IA puedan eludir las reglas del Reglamento de IA simplemente diciendo que sus servicios no son de alto riesgo. Además, los principios básicos propuestos para una «IA confiable» terminaron siendo voluntarios. No podemos dejar tener en cuenta que la IA ha venido a cambiar nuestras sociedades y la forma en que entendemos las relaciones, de ahí que es necesario asegurar un reglamento que proteja adecuadamente a las personas. Ahora tocará que en los trílogos no vayamos para atrás y gane la postura más respetuosa de los derechos fundamentales”.