“La Ley de IA ofrece a la legislatura de la UE una oportunidad de poner fin al uso de sistemas de IA discriminatorios y que violan derechos”, afirmó Mher Hakobyan, asesor de Amnistía Internacional para el trabajo de incidencia sobre la regulación de la inteligencia artificial.”

“La UE debe prohibir el uso de sistemas discriminatorios de IA que afectan desproporcionadamente a miembros de comunidades marginadas como las personas migrantes, refugiadas y solicitantes de asilo. Estas tecnologías trazan perfiles de personas y comunidades so pretexto de que “predicen” delitos, o “identifican” a personas que supuestamente representan un riesgo para la seguridad, incluso haciendo que se les niegue el derecho de asilo. El Parlamento Europeo no debe perder esta oportunidad de prohibir el uso de ciertas prácticas basadas en la IA y proteger los derechos de las personas migrantes, refugiadas y solicitantes de asilo frente a los aspectos perniciosos de estas tecnologías.”

“También debe prohibirse el uso de tecnologías de vigilancia masiva, como las herramientas de identificación biométrica remotas retrospectivas y en directo. La propuesta legislativa debe prohibir asimismo los sistemas discriminatorios de puntuación social (social scoring) que impiden el acceso de ciertas personas a servicios públicos y privados esenciales como las prestaciones de apoyo a la infancia y la educación.”

El Parlamento Europeo no debe perder esta oportunidad de prohibir el uso de ciertas prácticas basadas en la IA y proteger los derechos de las personas migrantes, refugiadas y solicitantes de asilo frente a los aspectos perniciosos de estas tecnologías.

Mher Hakobyan, asesor de Amnistía Internacional para el trabajo de incidencia sobre la regulación de la inteligencia artificial

“La Ley de IA debería abordar también el desarrollo de tecnologías europeas que se exportan a terceros países. En primer lugar, no se debería permitir la exportación de sistemas de IA prohibidos en Europa. En segundo lugar, las tecnologías de alto riesgo permitidas que se exporten deben cumplir los mismos requisitos reglamentarios que las tecnologías de alto riesgo que se vendan en la UE.”

“Además, deben implementarse medidas contundentes de rendición de cuentas y transparencia cuando organismos públicos y privados usen sistemas de IA en la UE. Estos actores deben revelar su uso de sistemas de IA de alto riesgo y publicar evaluaciones exhaustivas de su impacto en los derechos humanos. Esto es importante para que las personas perjudicadas por sistemas de IA puedan pedir resarcimiento. La Ley de IA debería establecer un mecanismo destinado a este fin.”