"Con mi cara NO", la alerta de una ONG

"Con mi cara NO", la alerta de una ONG

La Asociación por los Derechos Civiles (ADC) advirtió acerca de los riesgos que supone el Sistema de Reconocimiento Facial de Prófugos (SRFP).

MDZ Sociedad

MDZ Sociedad

La Asociación por los Derechos Civiles (ADC) presentó la web Con mi cara No para alertar a los ciudadanos sobre los riesgos que, según esa ONG, conlleva la implementación desde abril del reconocimiento facial en la ciudad de Buenos Aires.

"Creemos que hay suficientes razones que justifican establecer una restricción absoluta del uso de reconocimiento facial, por parte de las fuerzas de seguridad e inteligencia, con fines de vigilancia", analizó el investigador Leandro Ucciserri, integrante de ADC.

"Desde abril seguimos de cerca este tema -agregó- buscamos los detalles de cómo este sistema empezó a funcionar y vimos que era muy vaga la información que había. Se necesita una mayor transparencia sobre esta tecnología".

Esta tecnología había sido presentada en su momento por el jefe de Gobierno porteño, Horacio Rodríguez Larreta junto a la ex ministra de Seguridad de la Nación, Patricia Bullrich. Su objetivo es localizar y detener a personas prófugas a través de la detección de rostros a través de 300 cámaras de video-vigilancia ubicadas en distintas calles y estaciones de subte.

"El reconocimiento facial es una tecnología biométrica que permite reconocer e identificar a las personas mediante sus rasgos faciales. Si bien hay ciertas aplicaciones del reconocimiento facial que son útiles, esta tecnología ha ido ganando cada vez mayor popularidad como una herramienta de vigilancia y control", detalla el sitio Con mi cara No. 

En la web, ADC advierte que "el uso indiscriminado, sin una regulación apropiada y precisa está poniendo en riesgo el ejercicio de nuestros derechos fundamentales, el disfrute de los espacios públicos y el desarrollo de nuestra vida en sociedad".



Entre los riesgos citan el uso encubierto o sin consentimiento de la población; la inversión de la carga de la prueba: todos son culpables hasta que el sistema / algoritmo diga que no lo son; afectación a garantías del debido proceso; discriminación: la tecnología es imprecisa y arroja un alto porcentaje de falsos positivos contra personas de tez no blanca y mujeres.

También alertaron que puede haber un uso sin una base legal que regule específicamente la utilización (como el caso de Argentina); filtraciones o hackeos a la base de datos por una pobre o nula implementación de medidas de seguridad; individualizar y realizar un seguimiento preciso de cada persona, y facilitar la vigilancia masiva en forma automatizada".

A fines de octubre, desde ADC se pidió la inconstitucionalidad ante el Tribunal Superior de Justicia de la Ciudad de Buenos Aires, para que la Resolución 398/19, que crea el Sistema de Reconocimiento Facial, pierda vigencia.

Para Ucciserri, "la resolución que implementa esta tecnología no tiene base legal que le permita funcionar. Solicitamos al Estado que muestre cómo es todo el proceso y la evidencia que hay detrás. Tiene que haber un estudio sobre el impacto en los derechos humanos de esa tecnología, que nunca se hizo".

Temas

¿Querés recibir notificaciones de alertas?