Buscar

Comunicación

Instalamos cajas transparentes frente al Ministerio de Escrivá para exigir que la legislación sobre inteligencia artificial tenga más luces que sombras

  • Con esta acción, la coalición IA Ciudadana, de la que CECU forma parte,  pide al Gobierno de España que tome medidas para que la aplicación de la nueva legislación europea de inteligencia artificial respete los derechos humanos
  • Sus demandas incluyen la prohibición del reconocimiento biométrico y de emociones en lugares de acceso público, la creación de un registro abierto de algoritmos, la garantía de no discriminación de ningún grupo social mediante el uso de sistemas de IA y la participación de la sociedad civil en su gobernanza.

Una vez aprobada el Reglamento Europeo de Inteligencia Artificial (AI Act) y cuando está a punto de publicarse su texto final en el Diario Oficial de la Unión Europea, una coalición de 17 organizaciones sociales, bajo el nombre de IA Ciudadana, ha pedido hoy al  Gobierno que aplique esta nueva legislación en España con el mayor nivel de protección posible para la ciudadanía.

“Transparencia”, “participación”, “igualdad» o “supervisión y control” son algunas de las peticiones clave que se han leído en las enormes cajas transparentes que la coalición ha instalado ante el Ministerio para la Transformación Digital y de la Función Pública, liderado por el ministro José Luis Escrivá. Enmarcándolo todo, la petición de una inteligencia artificial “con más luces que sombras”.

Las organizaciones plantean cuatro peticiones fundamentales:

  1. Prohibir el reconocimiento biométrico en lugares de acceso público, tanto en tiempo real como a posteriori, y el reconocimiento de emociones en todas sus formas.
  2. Desarrollar un registro de algoritmos y ampliar los supuestos obligatorios en los que el uso de algoritmos debe registrarse en la base de datos de acceso público que crea la ley europea, cuyo alcance es limitado.
  3. Garantizar un marco de igualdad para todas las personas en los sistemas de IA, para que no se conviertan en una herramienta que discrimine a ningún sector de la población.
  4. Incorporar la participación efectiva de la sociedad civil en la gobernanza de la inteligencia artificial y en los estudios de evaluación de impacto sobre los derechos fundamentales, así como en la definición de políticas públicas de IA.

 

“El reconocimiento de los rasgos faciales y de las emociones debe ser prohibido sin excepciones, en todos los ámbitos. Es una intromisión innecesaria al derecho a la intimidad y un abuso de poder, que además no tiene evidencia científica y contribuye a la sociedad de la vigilancia» , ha afirmado Paula Guerra Cáceres, portavoz de la coalición en este acto.

“Además, la sociedad civil, y especialmente los grupos de personas afectadas por el uso de la inteligencia artificial, deben tener derecho a supervisar estos sistemas, a exigir el cese de su uso si se demuestra que estos están reproduciendo discriminaciones y a solicitar reparación para las víctimas”, ha añadido la portavoz.

Ya se han producido casos como estos, por ejemplo, en los Países Bajos, cuando un algoritmo denegó subvenciones para cuidados infantiles basándose en perfiles raciales, o en Serbia, donde personas con discapacidad no recibieron asistencia social por una automatización del sistema nada inocente. En Reino Unido, una cámara de vigilancia asociada a un sistema de reconocimiento facial identificó erróneamente a un cliente como ladrón reincidente. En España se han implantado también estos sistemas en el ámbito policial y de servicios sociales pero, a pesar de las peticiones de transparencia, no se consigue la información para poder estudiar su impacto.

Por estos motivos, las organizaciones han entregado en el registro del Ministerio una carta en la que piden al ministro Escrivá que cuente con su conocimiento y la experiencia, tanto para la aplicación del AI Act en España, como para el desarrollo de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), que sería la encargada de supervisar el cumplimiento de la norma. Para reforzar esta petición, miembros de IA Ciudadana han replicado este acto de denuncia esta misma mañana ante la sede de la AESIA en A Coruña.

Según la reciente Estrategia de IA 2024 del Gobierno, la AESIA tendrá que articular un diálogo entre la comunidad científica, la industria y la sociedad civil. Sin embargo, hasta el momento la participación en políticas públicas de IA ha sido casi inexistente, a pesar de las continuas demandas de las organizaciones.

Desde IA Ciudadana insistimos en que la sociedad civil debe participar en la definición de políticas sobre inteligencia artificial. Para ello, es indispensable que la ciudadanía disponga de información accesible y transparente acerca de las funciones, agendas y mecanismos de participación en los organismos responsables de regular y controlar la aplicación de la IA. La participación pública efectiva y diversa permite decisiones más equitativas y con mayor legitimidad democrática.

Listado de organizaciones miembros de IA Ciudadana: Algorace, Algorights, Civio, Federación de Consumidores y Usuarios CECU, Digital Fems, Éticas, Institut de Drets Humans de Catalunya, Iridia, Komons, Lafede.cat, Novact, Oxfam Intermón, Political Watch; Observatorio Trabajo, Algoritmos y Sociedad.

Organizaciones observadoras: Amnistía Internacional, Fundación Secretariado Gitano, Xnet.

Posicionamiento completo

También te puede interesar