Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Miércoles, 3 de junio de 2020
Sesgo tecbiológico

Estudio de EE.UU. advierte que software de reconocimiento facial tiende a resultados racistas

Lissette Fossa

La investigación concluyó que los programas de reconocimiento facial tienen altas tasas de errores con fuertes sesgos raciales y de clase. En Chile la vocera de gobierno Karla Rubilar y el alcalde de Las Condes, Joaquín Lavín, abogan por implementar esta tecnología en nuestro país.

Según un estudio del Instituto Nacional de Estándares y Tecnologías de Estados Unidos (NIST, por siglas en inglés), los algoritmos de los softwares de reconocimiento facial tienden a sacar conclusiones racistas. 

El uso de sistemas de reconocimiento facial está creciendo rápidamente en el control de fronteras y en materia de investigación de delitos. En Chile, la comuna de Las Condes comenzó a implementar sistemas de este tipo, impulsados por su alcalde, Joaquín Lavín. En marzo de 2019, la entonces intendenta de la Región Metropolitana, Karla Rubilar, anunció que en Santiago ya se encontraba en marcha blanca un sistema similar. 

 Si bien varios estudios académicos han demostrado previamente que los sistemas de reconocimiento facial son erráticos, el estudio de NIST es la evaluación más completa hasta la fecha y confirma estos resultados anteriores, además de reconocer que esos errores se relacionan a resultados racistas. Las conclusiones del estudio ponen en duda si estos sistemas deberían ser ampliamente utilizados.

NIST realizó dos pruebas, una que se llama coincidencia uno a uno, que compara dos fotografías de la misma persona, con vestimenta diferente; y otra, llamada coincidencia uno a muchos, que primero reconoce la foto de una persona y luego el sistema busca el rostro de esa persona en una base de datos con muchas caras. El estudio, que se probó con rostros de personas que solicitaban visas o que ingresaban a Estados Unidos., incluyó 18 millones de imágenes de más de ocho millones de personas.

Una de las conclusiones a las que se llegó es que, para el caso del sistema uno a uno, la mayoría de los sistemas del país norteamericano tenían una alta tasa de falsos positivos en el caso de personas asiáticas, indígenas y afroamericanos, es decir, de errores en el reconocimiento facial. En algunos casos, los errores eran hasta 100 veces más comunes en comparación con rostros caucásicos.

El mismo experimento se aplicó a softwares asiáticos, que daban como resultado menos errores para reconocer rostros de personas de ese continente. 

Los programas estadounidenses presentaban, según este estudio, más falsos positivos en rostros indígenas y nativos americanos, en el caso del sistema uno a uno.

Los sistemas de reconocimiento facial de uno a muchos aparecían con altas tasas de errores en el caso de las mujeres afroamericanas. Esto las pone en riesgo, ya que es un sistema que ya usa la policía en ese país para reconocer autores de delitos, comparando su base de datos con la fotografía del sospechoso.

Esta noticia abre la puerta a las autoridades mundiales para evaluar el funcionamiento de estas tecnologías. NIST también instó a los desarrolladores de reconocimiento facial a realizar más investigaciones sobre cómo se podrían mitigar estos sesgos.

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Comentarios

Comentarios

Añadir nuevo comentario