Rasha Abdul Rahim, directora de Amnesty Tech, considera que la nueva propuesta de la Unión Europea para regular el uso de tecnologías de inteligencia artificial no está a la altura de los que se necesita para mitigar el abuso potencial de tecnologías como los sistemas de reconocimiento facial.
“Con la prohibición propuesta por Unión Europea, la policía seguirá facultada para utilizar software de reconocimiento facial que no sea en tiempo real con cámaras de vigilancia de circuito cerrado y seguir todos nuestros movimientos. Hasta podrá sacar imágenes de las cuentas de redes sociales sin el consentimiento de la gente”, declaró Abdul Rahim.
El 21 de abril, la Comisión Europea propuso una legislación que prohíbe ciertos usos de los sistemas de inteligencia artificial por los cuerpos encargados de hacer cumplir la ley, como los sistemas de identificación biométrica en “tiempo real”, como las tecnologías de reconocimiento facial, en espacios públicos. Sin embargo, ese uso estaría permitido cuando sea “estrictamente necesario” para fines específicos. Además, la utilización de sistemas de identificación biométrica en otros entornos no está prohibida, solo clasificada como de “alto riesgo”.
Si bien la propuesta prohíbe que los cuerpos policiales utilicen tecnologías de reconocimiento facial en tiempo real en lugares públicos, existen importantes lagunas en la prohibición del uso privado del reconocimiento facial y muchas otras formas de vigilancia biométrica remota.
Advierte Amnistía Internacional que se sigue permitiendo el reconocimiento facial en tiempo real de personas sospechosas de entrar irregularmente en un Estado miembro o vivir en él. “Algo que puede utilizarse contra personas migrantes y refugiadas. El borrador también permite la actuación policial predictiva y el uso de sistemas de inteligencia artificial en el control de fronteras”, agrega.
En general, la ONG defensora de los derechos humanos opina que la legislación propuesta no va lo suficientemente lejos con respecto al riesgo de que la inteligencia artificial afiance y agrave el racismo y la discriminación.
“No solo el software de reconocimiento facial es muchísimo menos exacto en rostros negros y oscuros, sino que el racismo sistémico en la ley significa que la IA puede utilizarse contra estas comunidades y generar detenciones indebidas. Es más, las salvaguardias y las obligaciones de transparencia incluidas en la propuesta no protegerán significativamente a la población”, señala.
La propuesta es prohibir el software de social scoring. Una especie de puntuación social que determina la credibilidad o reputación de una persona de acuerdo con varios factores que incluyen datos o actividades online. Una tecnología distópica que ‘clasifica’ a las personas de acuerdo con una métrica reductora que puede incluir el género, la raza, la edad y la discapacidad. “Estos sistemas de inteligencia artificial constituyen una afrenta a la dignidad humana y pueden utilizarse para atacar y excluir a grupos de por sí marginados”, subraya.
“Pedimos a la UE que cierre las abundantes lagunas existentes en esta normativa, que dejan la puerta abierta a prácticas discriminatorias y abusos generalizados. Debe prohibir el uso de los sistemas de reconocimiento facial para la vigilancia masiva”.
Amnistía Veto al escaneo pide que se prohíban el desarrollo, la venta, el despliegue y la exportación de tecnologías de reconocimiento facial con fines de identificación por parte de agentes tanto estatales como no estatales.
Lea también en Cambio16.com: