Buscar
Buscar
Cerrar este cuadro de búsqueda.

Comunicación

La UE debe impedir que las Big Tech manipulen el Reglamento de la IA

  • Hasta el momento las organizaciones de la sociedad civil expertas en tecnología y derechos humanos han quedado excluidas del proceso, caracterizado por su falta de transparencia
  • Las organizaciones piden que la nueva regulación se asegure de que la determinación del riesgo de los sistemas de IA no quede en manos de las propias empresas que la desarrollan

La Coalición IA Ciudadana sobre Inteligencia Artificial se ha dirigido a Carme Artigas, Secretaria de Estado de Digitalización e Inteligencia Artificial, y a Nadia Calviño, Ministra de Economía, para pedirles que en el marco de las negociaciones de la Unión Europea sobre el futuro reglamento de inteligencia artificial se prohíban tecnologías peligrosas que puedan amplificar la pobreza, el racismo y la discriminación, y para recordarle que la determinación del riesgo de los sistemas de IA no debe quedar en manos de las propias empresas que los desarrollan. Además, la Coalición recuerda que es necesario que se realice un estudio de impacto sobre derechos fundamentales de forma previa para evaluar y mitigar riesgos. Y, por último, señalan las organizaciones, es necesario que se prohíban las tecnologías de reconocimiento biométrico que permiten el reconocimiento facial, de emociones y del lenguaje corporal en los espacios públicos, tanto en tiempo real como posteriormente, pues atenta contra el derecho a la intimidad, la privacidad, el derecho a la igualdad y a la no discriminación, así como el derecho a la protesta.

Actualmente se debate en los trílogos (negociaciones trilaterales de alto nivel entre el Consejo, la Comisión y el Parlamento Europeo) bajo la Presidencia española del Consejo de la UE, la propuesta de regulación sobre inteligencia artificial, una oportunidad histórica que presenta importantes retos para un sector que cambia a ritmo vertiginoso. Se trata además de una de las prioridades del presente semestre europeo, tal y como confirmó Nadia Calviño, ya que se pretende contar con un reglamento para finales de 2023.

Sin embargo, hasta el momento, la escasa participación de la sociedad civil y la falta de transparencia e interlocución en las negociaciones han alarmado a la Coalición Ciudadana sobre IA. «La participación de la sociedad civil es fundamental para garantizar la protección de los derechos y libertades de la ciudadanía, así como alertar de los posibles riesgos de la IA que la legislación tiene que hacer frente», asegura Judith Membrives i Llorens, portavoz de la coalición y técnica en incidencia digital en Lafede.cat

«El Gobierno español se comprometió a impulsar una transformación digital bajo el paraguas del humanismo digital, pero ahora ha llegado el momento de aterrizar ese concepto en unas disposiciones legales específicas que protejan los derechos y libertades amenazadas de la ciudadanía», señala Anabel Arias, responsable de derechos digitales de CECU y portavoz de la coalición.

Más información

El Gobierno de España ha impulsado algunas iniciativas importantes sobre inteligencia artificial, como la puesta en marcha de la primera Agencia de Supervisión de la Inteligencia Artificial (AESIA) y la creación de un entorno de pruebas (sandboxes) para analizar la aplicación del futuro Reglamento de Inteligencia Artificial.

Sin embargo, en las negociaciones sobre la futura regulación de la IA solo las empresas tecnológicas, asociaciones industriales y sectoriales, think tanks y foros especializados parecen haber podido participar hasta el momento, dejando fuera a las organizaciones expertas en tecnología y derechos humanos.

Ya en mayo, la Coalición IA Ciudadana (conformada por 16 organizaciones expertas en tecnología y derechos humanos) envió una carta a la Presidencia española expresando su preocupación por las deficiencias del Reglamento IA y solicitando que garantice una legislación robusta y respetuosa con los derechos fundamentales.

Ampliación: iaciudadana.org

MANIFIESTO