16/2/22

El reconocimiento facial refuerza la práctica policial racista en Nueva York... Amnistía Internacional exige la prohibición de la vigilancia masiva en Estados Unidos... La tecnología de vigilancia masiva se utiliza en los lugares de protesta para identificar, localizar y, posteriormente, hostigar a personas que se limitan a ejercer sus derechos humanos

 "Un simple paseo por una calle de Nueva York puede iniciar un proceso de vigilancia masiva en tu contra. Si eres mujer, racializada y/o vives en barrios donde la población blanca es minoritaria, como el Bronx, Brooklyn y Queens, tienes más posibilidades de que el reconocimiento facial utilizado por el Departamento de Policía de la ciudad pueda vulnerar, entre otros, tu derecho a la intimidad. Así lo revela el último informe de Amnistía Internacional (AI), que ha denunciado el uso indiscriminado del reconocimiento facial en esta ciudad estadounidense.

Entre 2016 y 2019, el Departamento de Policía de Nueva York documentó 22.000 casos de utilización de reconocimiento facial con fines de identificación, según el proyecto Decode Surveillance NYC, en el que personal de la ONG y miles de voluntarios digitales identificaron las 25.500 cámaras de videovigilancia instaladas en toda la urbe neoyorquina. 

“El reconocimiento facial que se está utilizando no solo vulnera el derecho a la privacidad, sino que también puede poner en peligro el derecho a la reunión pacífica, la libertad de expresión y el derecho de toda persona a no sufrir discriminación”, reconoce Carlos de las Heras. El responsable en tecnología y derechos humanos de AI alerta sobre las altas tasas de imprecisión de las tecnologías biométricas que se utilizan para el reconocimiento facial “especialmente en el caso de determinados grupos, como mujeres y personas de color”.

Tecnología invasiva

El uso del reconocimiento facial para desbloquear el móvil o abrir una aplicación bancaria no supone un riesgo, siempre que se solicite nuestro consentimiento. El desafío se encuentra en el reconocimiento facial con fines de identificación, para el cual las personas no damos nuestro consentimiento voluntario. Su funcionamiento consiste en sistemas informáticos que ejecutan procesos de coincidencia múltiple, donde el rostro de la imagen que se presenta al sistema se compara con una base de datos de imágenes para comprobar si se encuentran coincidencias.

“La tecnología de vigilancia masiva se utiliza en los lugares de protesta para identificar, localizar y, posteriormente,  hostigar a personas que se limitan a ejercer sus derechos humanos», explica el informe, publicado el mismo día en que Amnistía Internacional lanza una web que permite a los usuarios conocer cómo sería su trayecto por las calles de Nueva York bajo la vigilancia basada en el reconocimiento facial.

Sesgos en el reconocimiento facial

El reconocimiento facial puede dar lugar a la elaboración de perfiles sobre la base de la etnia, la raza, el origen nacional, el género y otras características que, a menudo, constituyen motivos ilícitos de discriminación. “Si quien está introduciendo esos datos tiene determinados sesgos, se introducen en el sistema y este tiende a repetirlos”, detalla de las Heras, haciendo alusión a los riesgos del aprendizaje automático, de los que ya hablamos anteriormente en otro artículo.

Según el responsable de Amnistía Internacional, “estas vulneraciones de derechos humanos refuerzan la discriminación de la que ya son objeto determinados colectivos”, como se observó en el uso indebido de la fuerza por cuerpos de seguridad de EE. UU. contra los manifestantes del movimiento Black Lives Matters.

 A mediados de 2020, las personas que participaron en estas protestas antirracistas en Nueva York sufrieron mayores niveles de exposición a las tecnologías de reconocimiento facial. Las Fuerzas de Seguridad del Estado intentaron detener al cofundador de la organización de justicia social Warriors in the Garden, Derrick “Dwreck” Ingram, en su casa el 7 de agosto de ese año, acusándole de haber agredido presuntamente a un policía mientras participaba en una manifestación tres meses antes.

Un documento captado durante la detención revelaba que el reconocimiento facial probablemente habría sido utilizado para ordenar el arresto, tras cruzar sus imágenes en la red social Instagram con el circuito cerrado de televisión de las cámaras de su ciudad, como denuncia Carlos de las Heras, aludiendo al refuerzo del racismo policial gracias al uso de la tecnología.

Errores en la identificación por género

El sistema también puede asignar a un rostro una mayor probabilidad de ser un hombre o una mujer, invisibilizando por medio de la inteligencia artificial a personas con identidad no binaria. El propio Instituto Tecnológico de Massachusetts ya demostró que el algoritmo cometía errores en la categorización del aprendizaje automático por razón de género y de raza, vulnerando los derechos de mujeres, población no binaria o racializada.

Aunque todavía se desconoce el alcance total de la discriminación y la vigilancia masiva impulsada por el reconocimiento facial, Amnistía Internacional ha mostrado su preocupación sobre el uso de la tecnología contra la población civil en múltiples contextos, como en Hyderabad, una ciudad del estado de Telangana en India, ya clasificada como una de las más vigiladas del mundo. De India a Estados Unidos, diversas organizaciones de derechos humanos exigen la prohibición total del uso, desarrollo, producción, venta y exportación de tecnologías de reconocimiento facial con fines de identificación, algo que no es sino vigilancia masiva, tanto por el Estado como por el sector privado."              (Ruth de Frutos, La Marea, 16/02/22)

No hay comentarios: