Buscar

Comunicación

El Reglamento de IA no protegerá adecuadamente a las personas consumidoras

  • La Federación de consumidores y Usuarios CECU considera que el resultado de las negociaciones europeas sobre el texto final del Reglamento de IA es decepcionante 

El pasado viernes, cerca de la medianoche, las instituciones de la UE llegaron, bajo la Presidencia española del Consejo de la Unión Europea, a un acuerdo provisional sobre la primera legislación del mundo sobre la inteligencia artificial. Sin embargo, desde CECU consideramos que el resultado es decepcionante en tanto no se han abordado todos los riesgos que esta tecnología representa para las personas consumidoras. 

Si bien el texto final del Reglamento de IA aún no ha sido publicado y aún quedan pendientes muchas reuniones técnicas, entendemos que tiene algunos puntos positivos, como la prohibición de la clasificación social, que resultaría demasiado degradante y discriminatoria para las personas consumidoras, o el reconocimiento de ciertos derechos en su favor, como la posibilidad de presentar reclamaciones ante autoridades públicas contra un sistema de IA o de buscar reparación colectiva en caso de daño.  

Sin embargo, la ley presenta varias lagunas y fallas desde la perspectiva de protección de las personas consumidoras. Además, se seguirán permitiendo sistemas de inteligencia artificial que puedan identificar y analizar los sentimientos de los consumidores (sistemas de reconocimiento de emociones), lo cual es muy preocupante dado que resultan ser muy invasivos y presentan muchas inexactitudes. Por su parte, el Reglamento de IA se focaliza en gran medida en los sistemas que se consideran de “alto riesgo”, dejando básicamente a muchos sistemas de IA prácticamente sin regulación, como los juguetes integrados con IA o los asistentes virtuales. A su vez, los modelos de IA que se encuentran detrás de sistemas como ChatGPT, que pueden integrarse en una amplia gama de servicios, no estarán adecuadamente regulados. Por ejemplo, no se exigirá que dichos modelos sean auditados por terceros independientes ni estarán sujetos a requisitos de transparencia suficientes como para permitir el escrutinio público.  

Por su parte, otros reclamos de la sociedad civil no han sido totalmente atendidos. Así, se han introducido excepciones para permitir el reconocimiento biométrico en espacios de acceso público (en tiempo real y ex post), en contra de la prohibición total que habían recomendado los europarlamentarios el pasado verano. Esto ha sido denunciado por varias organizaciones de la sociedad civil, porque este tipo de tecnología podría dar lugar a la vigilancia masiva biométrica generalizada. Asimismo, lamentamos que estaría permitida la auto evaluación de riesgos por parte de los proveedores e implementadores de sistemas de IA, lo que a nuestro juicio representa un gran debilitamiento de la norma. Por último, si bien se ha incorporado el requisito de de realizar un estudio de impacto de derechos fundamentales, se habría limitado a organismos públicos y entidades privadas que presten servicios de interés general. 

Anabel Arias, experta en derechos digital de CECU, sostiene: “El acuerdo provisional sobre el Reglamento de IA al que se habría arribado el pasado viernes tiene algunos puntos positivos (como la posibilidad de reclamar frente a daños) y otros negativos. Sin embargo, en líneas generales las medidas para proteger a las personas consumidoras son decepcionantes. No se abordan suficientemente problemas como las manipulaciones o la discriminación de los sistemas de IA, en tanto muchas cuestiones dependerán excesivamente la buena voluntad de las empresas, lo que sabemos que particularmente en el sector tecnológico no ha venido funcionando. Si bien entendemos que aún faltan muchas reuniones técnicas (por lo que sería más bien un éxito político), en general consideramos que el Reglamento de IA debería haber hecho más para proteger a los consumidores”. 

También te puede interesar