El siguiente artículo fue publicado por Agência Pública el 17 de febrero y es de autoría de Por Andrea DiP, Claudia Jardim, Ricardo Terto, Stela Diogo, Rafaela de Oliveira.
En abril de 2024, João Antônio Trindade Bastos, un joven negro de 23 años, fue detenido durante el partido de fútbol de su equipo en Aracaju. Un año después, en la ciudad de São Paulo, Francisco Ferreira da Silva, jubilado de 80 años, fue llevado a comisaría mientras realizaba labores de voluntariado. Ambos fueron identificados y confundidos mediante sistemas de reconocimiento facial. Sólo fueron liberados después de que la policía confirmara el error. Estos y otros casos similares son ejemplos recientes que reflejan un patrón histórico de detenciones injustas contra la población negra.
La Pauta Pública de esta semana debate los límites y riesgos del uso de la tecnología de reconocimiento facial, especialmente cuando se aplica a la seguridad pública. El entrevistado es Pedro Diogo Carvalho, coordinador de Vigilancia y Nuevas Tecnologías del Laboratorio de Políticas Públicas e Internet (LAPIN) y miembro de la campaña Saca mi cara de tu vista. Le preocupa el aumento de la implantación de programas de vigilancia digital y defiende que más tecnología no significa más seguridad, sobre todo cuando refuerza desigualdades históricas y viola derechos fundamentales.
"Estos sistemas [de reconocimiento facial] reproducirán patrones racistas y actualizarán la vigilancia que ya existe en relación con la población negra y las poblaciones más desfavorecidas económicamente. [...] La prisión se ha convertido en una mercancía, porque funciona dentro de una lógica muy comercial: es la relación entre el Estado, las empresas y la tecnología. [...] Más armas, más uso de cámaras no significa una mejora de la seguridad pública". Lea los puntos principales y escuche el podcast completo a continuación.
El proyecto Smart Sampa de São Paulo prevé instalar hasta 40.000 cámaras con reconocimiento facial. Cómo valora el impacto de la expansión del uso de estas cámaras de seguridad bajo el argumento del control de la delincuencia sobre los derechos civiles, especialmente los de las poblaciones negras y periféricas?
El proyecto Smart Sampa está vinculado a una tendencia nacional de implementar estas tecnologías de reconocimiento facial en las redes de videovigilancia, que no es algo nuevo. Estamos viendo esta tendencia desde 2019, y comenzó en Bahía. Bahía fue un estado que se convirtió en protagonista en el uso de estos sistemas y fue algo que se extendió por todo el territorio nacional y ahora está ganando mucho protagonismo con el uso muy mediático de las cámaras a partir de la alcaldía de Ricardo Nunes, que está utilizando Smart Sampa como un elemento electoral importante, un gran destaque de su gestión en la alcaldía.
La sociedad civil en su conjunto ve el uso de estas cámaras como un gran problema para la seguridad pública hoy en día, dadas las formas en que estos sistemas llevan a la expansión de las acciones policiales, especialmente en relación con la población negra, pero también por los procesos de discriminación algorítmica que existen en el uso de estos sistemas. Por un lado, vemos los problemas de los falsos positivos, de las detenciones injustas, pero en particular vemos la forma en que estos sistemas actualizan la vigilancia que ya existe en relación con la población negra y las poblaciones más desfavorecidas económicamente.
La asertividad criminal, que ya es un problema común para el sistema de justicia penal en todo Brasil, se actualiza con estas tecnologías de videovigilancia, que amplían esta lógica. Y, por otro lado, hay esta reafirmación del discurso populista penal, este populismo penal, este sentido común que se verifica en la idea de más policía, es decir, más seguridad, que vemos cada vez más como una no realidad. Nos damos cuenta de que más policía, más armas, más uso de cámaras no significa una mejora de la seguridad pública.
¿Por qué las cámaras de vigilancia se consideran herramientas racistas? ¿Cómo pueden agravar esta selectividad penal?
Los sistemas de reconocimiento facial los construyen los desarrolladores y hay que entrenarlos para que reconozcan a las personas. Son como un niño robotizado. Hay que entrenarlos para que sean capaces de identificar, de reconocer, y son los algoritmos los que actúan en cada una de sus funciones: reconocen puntos de la cara, identifican patrones. ¿Y cómo aprenden a hacer esto? Aprenden recibiendo una enorme base de datos de caras. Y luego aprenden a identificarlas.
Este conjunto de datos se llama base de entrenamiento. Lo que varios investigadores han identificado es que estas bases de datos se formaron mediante procesos de infrarrepresentación y sobrerrepresentación. En otras palabras, en estas bases de datos había muchas caras blancas y pocas caras negras, al igual que había muchas caras de hombres y pocas caras de mujeres. ¿A qué conduce esto? Problemas para identificar los rostros de mujeres y hombres negros y una mayor capacidad para identificar los rostros blancos. Eso no quiere decir que no cometieran errores con las caras blancas. Significa que tenían una menor tasa de error con los rostros negros.
Les cuesta identificar a alguien. Los errores en los sistemas tecnológicos son la base de la tecnología. Toda tecnología comete errores, toda tecnología tiene una tasa de error. Así que no te creas cuando el gobierno municipal o estatal diga que no hay errores, porque los habrá. Es más, un sistema tecnológico no puede verse fuera de la realidad social en la que se va a implantar. Por lo tanto, si se incluye un sistema de videovigilancia con reconocimiento facial, conectado a una base de datos policial que tiene un historial de violencia racial, este sistema va a producir patrones racistas.
¿Qué significa eso? Que este sistema reproducirá patrones racistas de persecución y vigilancia. Un patrón de persecución que ya existe y que sabemos que son poblaciones negras, poblaciones económicamente desfavorecidas en una sociedad extremadamente injusta como es la ciudad brasileña.
La campaña Tire Meu Rosto da Sua Mira [Quita mi cara de tu vista], de la que usted forma parte, aboga por la prohibición total del uso del reconocimiento facial en la seguridad pública. Cuál sería una forma alternativa de garantizar la seguridad pública sin renunciar a los derechos fundamentales a la intimidad y a la no discriminación?
La seguridad pública es realmente uno de los problemas más delicados de la realidad política actual de Brasil, y toca muchos clamores y muchos puntos, pero creo que el primer punto que debemos seguir es la idea de que la seguridad pública es una política pública. Y una política pública necesita planificación, participación social, transparencia y datos que sean compartidos con la población, entendiendo también las particularidades de seguridad confidencial que existen. Este es el primer punto que debemos entender.
Recientemente, LAPIN (Laboratorio de Políticas Públicas de Internet), del que soy miembro, y Panóptico, que es un equipo de los Centros de Estudios de Seguridad y Ciudadanía que monitorea las iniciativas de reconocimiento facial en todo el país, hicieron un trabajo juntos. Se trataba de trazar un mapa de la transparencia en las iniciativas de reconocimiento facial en todo Brasil. Tomamos más de 90 iniciativas e intentamos comprender qué grado de transparencia tenían. Nos dimos cuenta de que eran muy bajos, en todo el país, en todos los estados y en todos los municipios. Así que la transparencia muestra cómo la seguridad pública no está siendo vista como una política pública. El camino alternativo es pensar en la seguridad pública como política pública.
El segundo punto es que necesitamos confrontar directamente un paradigma de seguridad pública basado en la guerra contra las drogas y una lógica militarizada del trabajo policial y de seguridad pública. Esta lógica de encarcelamiento masivo, que está orientada a la guerra contra las drogas y a una lógica policial militarizada, es uno de los principales factores del crecimiento de las organizaciones y facciones criminales en todo el país. Las grandes facciones nacen del encarcelamiento masivo. Así que esta lógica no funciona para garantizar mayor seguridad a la población. Tenemos que enfrentarnos a este paradigma.
Tenemos más de 30 años de Constitución Ciudadana. Tenemos que pensar que salimos de la dictadura y avanzamos hacia la democracia, pero tres años después de la Constitución del 88, tuvimos la masacre de Carandiru. Así que la inauguración de la República brasileña tuvo lugar con varias masacres. Tenemos que cuestionar este proceso, este es el camino a seguir, pensar en la seguridad pública como una política pública y cuestionar un sistema de justicia penal que parece estar vinculado a la violencia de Estado como la praxis de lo que funciona en este país.
La sociedad es testigo del populismo penal, del racismo basado en el sistema de justicia penal y de los legados de la militarización de las agencias policiales en Brasil. No podemos naturalizar la falta de transparencia, la falta de comprensión de la seguridad pública como política pública. A partir del reconocimiento facial, podemos empezar a construir una agenda alternativa para la seguridad pública en Brasil.
Comentarios
la carcel ya no es sinonimo
Añadir nuevo comentario