Otra polémica se suma a las herramientas de reconocimiento facial alrededor del mundo. Hace unos días, se reportó que un usuario anónimo de la red social china Weibo (una especie de Facebook chino) aseguró haber usado un programa de esta tecnología para cruzar las fotos de mujeres en las redes sociales con caras sacadas de plataformas pornográficas.
Este usuario, que afirma tener residencia en Alemania, dijo en una publicación en la red social oriental que ha logrado “identificar a más de 100.000 chicas en la industria del porno de todo el mundo”. Su objetivo, es “ayudar” a otros hombres a saber si sus novias habrían participado de alguna película pornográfica.
El hombre habría borrado el proyecto y la información contenida en él, pero no por un acto de altruismo, sino por tratarse de una acción que violaba la ley europea de privacidad, aunque esto puede ser legal en otras partes del mundo.
Aún así, cuando el usuario fue contactado por VICE no aportó ninguna evidencia para respaldar sus afirmaciones: ningún código, ni bases de datos o algo más que una página de GitLab vacía para corroborarlo. El usuario sólo le habría dicho al medio que publicaría “el esquema de la base de datos” y “detalles técnicos”, y se abstuvo de hacer más comentarios.
Pese a que esta persona no ha aportado ninguna prueba que pueda respaldar que el sistema funcionó e incluso existió, la tecnología existe y podría traer graves consecuencias, según informó el MIT Technology Review.
Una herramienta peligrosa
Aunque el usuario originalmente habría posteado que todo se encontraba en regla porque no había hecho pública la información, lo cierto es que la nueva ley de privacidad de la Unión Europea GDPR, (General Data Protection Regulation) previene este tipo de situaciones y sólo recolectar la información sin el consentimiento de las mujeres afectadas constituye delito, según indica el artículo del MIT Technology Review.
Más allá de lo anunciado a través de Weibo, la nota de alerta que levantaron los expertos en estudios feministas y en aprendizaje automático, y tiene que ver con el acoso a víctimas seleccionadas por un algoritmo. En la actualidad, la existencia de programas de este tipo es efectiva y ha sido objeto de debate sobre si su uso es ético y/o legal.
En VICE indican que este hecho se suma a los deepfakes -vídeos generados con inteligencia artificial en los que se añaden verosímilmente rostros de mujeres famosas a los cuerpos de actrices porno- y a la serie de nuevas funciones de reconocimiento facial. El sitio pornográfico Pornhub añadió una herramienta en esta línea en 2017, destinada a que sus usuarios pudieran buscar más fácilmente contenido de sus actrices favoritas, pero que también puede facilitar a los acosadores la localización de sus víctimas en redes sociales.
A juicio de Soraya Chemaly, autora de Rage Becomes Her, quien se refirió al proyecto del usuario chino en su cuenta de Twitter, esto "es un ejemplo horrendo y perfecto de cómo estos sistemas, a nivel mundial, permiten el dominio masculino. La vigilancia, la suplantación, la extorsión, la desinformaciónsuceden primero contra las mujeres y luego en la esfera pública, donde, una vez que los hombres se ven afectados, comienza a recibir atención".
Comentarios
Añadir nuevo comentario