Reconocimiento facial en el espacio público: vuelve el debate en la Ciudad de Buenos Aires

Organizaciones vinculadas a los derechos civiles y tecnológicos alertan sobre los riesgos que significa para la ciudadanía un proyecto de ley que habilita el empleo de tecnología de reconocimiento facial.

La Legislatura de la Ciudad Autónoma de Buenos Aires comienza el debate para regular la implementación de sistemas de cámaras de seguridad que utilizan tecnologías como inteligencia artificial y reconocimiento facial.

Esta tecnología empezó a aplicarse en 2019 bajo el “Sistema de Reconocimiento Facial de Prófugos” (SRFP) del Ministerio de Seguridad de la Ciudad, no obstante las cámaras dejaron de estar operativas éste año. Los legisladores porteños Claudia Neira y Marcelo Ferreño impulsan un proyecto de ley que busca modificar la ley 5688 de Seguridad Pública de 2016, que regula las políticas de seguridad en el distrito capital.

Ante ésta iniciativa, fueron varias las organizaciones sociales, fundaciones y ONGs vinculadas a los derechos civiles, políticas públicas y tecnologías que realizaron llamados de atención respecto de los riesgos que éste tipo de tecnologías suponen.

Los argumentos y las alertas

Según las publicaciones y comunicados realizados por organizaciones civiles y especialistas, el balance entre la eficacia de las tecnologías implementadas y los «costos» en términos de derechos vulnerados, daría negativo.

Según Beatriz Busaniche, de Fundación Vía Libre -dedicada a la protección y promoción de los Derechos Humanos en entornos mediados por tecnologías de información y comunicación-, en un comunicado de la institución destacó que las tecnologías de reconocimiento facial se utilizan para la vigilancia masiva en espacios públicos, con la consecuente violación a los derechos individuales de los ciudadanos que ésto acarrea.

¿De qué se trata ésta tecnología y por qué es riesgosa? El reconocimiento facial es una tecnología biométrica que permite reconocer e identificar a las personas mediante sus rasgos faciales. Los datos biométricos están vinculados a nuestra identidad, ya que forman parte de quiénes somos como persona, nuestras características y comportamientos. El reconocimiento facial funciona mediante un software (con un algoritmo) que reconoce rostros e individualiza sus rasgos mediante una plantilla, que contiene por ejemplo la distancia entre los ojos, la nariz y la boca, etcétera. Esta tecnología, como toda la biometría, implica un proceso de probabilidades, el sistema no es infalible. Su propósito es indicar en qué porcentaje la plantilla de un rostro se parece a otro. En su estado actual de madurez, el reconocimiento facial presenta serios problemas y desafíos. No solo para los derechos a la privacidad y la protección de datos personales, sino también para garantías constitucionales.

«El uso de tecnologías de reconocimiento facial para identificar personas buscadas por la justicia supone la identificación constante de toda persona que transite por el espacio monitoreado, esto supone un efecto directo sobre las personas ante la posibilidad de ser monitoreadas, perder su derecho a circular en anonimato y ser identificadas limitando la libertad de circulación, la libertad de reunión y comprometiendo la privacidad de esas personas«, alerta Busacniche respecto de los riesgos de éste paquete tecnológico que agrega inteligencia artificial para generar alertas.

Desde Vía Libre, alertaron sobre la inversión de una garantía básica de cualquier ciudadano, la plena implementación de éste sistema de cámaras invierte así una garantía básica de todo ciudadano, el de ser inocente hasta que se demuestre lo contrario. Es decir, la aplicación de éstas tecnologías «… impacta en el debido proceso y la presunción de inocencia, ya que cuando el sistema automatizado dispara una alerta, queda en cabeza de la persona sindicada probar su inocencia y/o demostrar el error».

Desde la ONG AccessNow alertan, con un enfoque técnico, cuales son los peligros que significan éstas cámaras y cual es su lógica de funcionamiento: «El uso de esta tecnología permite capturar datos biométricos de los transeúntes que pasan por el espacio visual de la cámara y verificar si esos datos biométricos se encuentran en una base de datos compuesta por datos de personas buscadas por la justicia. El proceso suele ser rápido, automático y constante«.

La implementación de éste tipo de tecnología en la Ciudad de Buenos Aires no fue debidamente debatida, no sólo en la legislatura, sino abiertamente con especialistas de la sociedad civil. Las cámaras con reconocimiento facial se instalaron en 2019 sin una legislación ni protocolos específicos, a simple reglamentación del Poder Ejecutivo y, según destacan desde Vía Libre, la adquisición se realizó a través de una compra directa (sin licitación pública) a un proveedor sin antecedentes en la materia.

Por su parte, desde la Asociación por los Derechos Civiles (ADC), llaman a dejar de utilizar y suspender la implementación de tecnologías de reconocimiento facial con fines de vigilancia en el espacio público. Con argumentos legales y técnicos en sintonía con las otras dos organizaciones mencionadas, desde ADC sostienen que «La razón fundamental es que el estado actual de dicha tecnología, junto con una legislación general inadecuada para afrontar los desafíos del procesamiento biométrico, resultan obstáculos insalvables para cualquier iniciativa que pretenda respetar nuestros derechos». Para dar apoyo a sus argumentos, citan casos reales de personas detenidas por error ante alertas registradas por éstas cámaras en Buenos Aires. En julio de 2019, un ciudadano fue detenido en Retiro y trasladado a un penal en Bahía Blanca, donde estuvo recluído por seis días por un delito que nunca cometió: la «inteligencia artificial» de las cámaras lo confundió con otra persona. Casos como éstos se registraron al menos cuatro más en meses desde la implementación del sistema.

Una oportunidad para restaurar las garantías


Según la Fundación Vía Libre «en la regulación planteada no se pone sobre la mesa de debate el impacto en Derechos Humanos, no se solicita una evaluación, ni siquiera se ha cursado el proyecto a la Comisión de Derechos Humanos, Garantías y Antidiscriminación, sede natural de un proyecto de este tipo».

La Legislatura de la Ciudad de Buenos Aires tiene ahora no sólo la oportunidad, sino la responsabilidad de tratar éstos temas con al dimensión y la seriedad que corresponden. El proyecto de los legisladores Neira y Ferreño, expediente 1686/2020, que propone modificaciones a la ley de seguridad de la Ciudad, busca nuevos criterios de establecimiento de sistemas de video vigilancia, pero no su suspensión o prohibición; tampoco estos nuevos criterios suponen una discusión profunda, tanto desde el enfoque legal como desde la perspectiva técnica.

En otros países o ciudades del mundo, donde éstas discusiones de tecnopolítica llevan más tiempo, éstos sistemas están terminantemente prohibidos. Empezando por la ciudad de San Francisco en EEUU -ni más ni menos, donde está radicado el complejo de empresas de tecnología de punta Silicon Valley- que vedó por completo el uso de éste tipo de tecnologías. Otras ciudades norteamericanas y europeas suspendieron distintas prácticas de vigilancia masiva en el el espacio público por los mismos argumentos y el peligro que suponen para las garantías que tenemos como ciudadanos.

Tags:

Abrir chat
¡Hola! ¿Como estás? Hacenos tu consulta para afiliarte, salarios, y beneficios por Whatsapp de lunes a viernes de 9 a 18!