Este martes, el subsecretario del Interior, Manuel Monsalve (PS) y el presidente de la ANFP, Pablo Milad (Evópoli) se reunieron en La Moneda para acordar que a partir del próximo sábado el campeonato nacional comenzará a implementar paulatinamente el Registro Nacional de Hinchas (RNH) durante este año, hasta lograr su obligatoriedad para el 2025.
El Registro Nacional de Hinchas es un sistema de reconocimiento facial que verificará la identidad de los asistentes al estadio. Para ello, los hinchas deberán entregar los datos biométricos de sus rostros y sus cédulas de identidad a la empresa MB Services, representante del joint-venture español entre el BBVA y la start-up Das-Nano, Veridas.
A pesar de que según MB Services el objetivo del registro es “aumentar y reforzar los niveles de seguridad en el fútbol chileno”, publicaciones internacionales recientes dan cuenta de un peligro soterrado en las tecnologías de reconocimiento biométrico, la que podría exponer a los usuarios al robo no sólo de sus documentos de identidad, sino también de los datos de sus rostros, huellas dactilares o iris.
A diferencia de una contraseña, la información biométrica no puede simplemente restablecerse en virtud de la necesidad. Por lo tanto, el riesgo de seguridad es mayor y tiene como consecuencia una pérdida casi irreparable para la privacidad del afectado.
Al respecto, un artículo del New York Times dedicado a la biometría en venta de pasajes de avión apunta a que a diferencia de una contraseña, que se puede restablecer, los datos biométricos no se pueden cambiar fácilmente sin alterar significativamente su apariencia.
En respuesta a este tipo de dudas, la proveedora de la tecnología, Veridas, se defendió en un comunicado de prensa señalando que el robo de los datos biométricos no sería de utilidad pues sólo sería “válido para el motor biométrico concreto, en una versión concreta, y generado para un servicio en particular”. Por tanto, los datos del RNH serían inservibles para otras tecnologías de reconocimiento facial.
Si bien hasta ahora el enrolamiento en el Registro Nacional de Hinchas sigue siendo voluntario, más de 40 mil personas ya se han inscrito para asistir a los estadios. La prueba de fuego será este sábado en el duelo entre Audax Italiano y la Universidad de Chile, único club nacional que contaba con la infraestructura para implementar el RNH.
Los riesgos del reconocimiento facial: el caso de Clearview AI
En la experiencia internacional, la implementación de mecanismos para reconocimiento facial aplicado para diversos ámbitos ha supuesto consecuencias para la libertad individual de las personas e incluso una afectación material por medio del robo de datos biométricos con los que acceden a las cuentas bancarias, pero esos son solo algunos de los problemas.
Actualmente, la empresa de mayor renombre a nivel internacional de reconocimiento facial es Clearview AI. Un software que destaca por tener un banco de imágenes que supera los 40 millones y que, adjunto a las fotografías, incluye un perfil digital en que especifica desde dónde se han obtenido los datos y el contenido relacionado a ellos. según indica Retina.
Clearview AI asegura que la tasa de precisión de su software alcanza el 99.85%, pero eso no ha hecho que la aplicación quede exenta de críticas asociadas a sesgos raciales e identificación errónea, daño que no ha supuesto un problema para sus clientes entre quienes destacan gobiernos, fuerzas de seguridad y grupos de poder económicos y políticos.
En ese sentido, los interlocutores indican que Clearview AI se puede utilizar para intimidar o acosar a periodistas de investigación, funcionarios gubernamentales u opositores políticos, como también pueden incurrir en detenciones injustificadas.
Para Jack Laperruque, director adjunto del Centro de Democracia para la Tecnología, el problema de Clearview también radica en la forma de obtención de datos, pues lo hace sin un consentimiento explícito de los usuarios, pero además, tampoco de las fuentes desde donde las recoge como portales de noticias, blogs, páginas webs y redes sociales como Facebook, Instagram y X.
Desde el software se defiende sosteniendo que la herramienta tiene como objetivo identificar a criminales, agresores y fugitivos, pero en la práctica también ha supuesto robo en comercios menores e identificación de manifestantes en protestas, lo que se traduce en una merma a los derechos individuales y que ha acabado por debilitar la presunción de inocencia.
En adición, en un artículo publicado en The Harvard Gazette que recoge la conversación que la periodista tecnológica, Kashmir Hill, sostuvo con el profesor de Derecho Internacional, Jonathan Zittrain, en la Facultad de Derecho de Harvard sobre su nuevo libro Your Face Belongs to Us: A Secretive Startup's.
En ese sentido, los interlocutores indican que Clearview AI se puede utilizar para intimidar o acosar a periodistas de investigación, funcionarios gubernamentales u opositores políticos, como también pueden incurrir en detenciones injustificadas.
Por otro lado, también presentan preocupación por un software que no ha alcanzado el revuelo de Clearview, PimEyes. Dicho software utiliza la misma tecnología y hasta no hace mucho, también tenía en sus registros rostros de menores de edad en su banco de imágenes al que podías acceder con una suscripción mensual.
Respecto al uso de reconocimiento facial en menores de edad, uno de los casos emblemáticos fue el ocurrido en septiembre de 2023 en el estado de Nueva York donde se prohibió el uso de la tecnología en los colegios tras un informe de la Oficina de Servicios de Tecnología de la Información.
En el documento, se indica que “ los riesgos del uso (de la tecnología de reconocimiento facial) en un entorno educativo pueden superar los beneficios”, y advierte sobre los sesgos de la herramienta respecto a “la tasa potencialmente más alta de falsos positivos para personas de color, personas no binarias y transgénero, mujeres, ancianos y niños”.
Sobre el sesgo racial de la tecnología, un artículo de Newstalk recoge las impresiones de su aplicación en los recientes disturbios ocurridos en Dublín, Irlanda por medio de un proyecto de ley que lo habilite.
A raíz de aquello, Olga Cronin, Oficial Superior de Políticas de Vigilancia y Derechos Humanos, plantea al citado medio que el software “no funciona tan bien en personas que no son hombres blancos de mediana edad [...] Hemos visto casos de identificación errónea y de personas encarceladas injustamente, especialmente en Estados Unidos, todos ellos negros”.
Más allá de las libertades individuales y el riesgo económico
Según publicó Ctxt en junio de 2023, los datos biométricos son susceptibles a ataques en tanto funcionen como métodos de autentificación. El problema es que, a diferencia de una contraseña, este tipo de información no puede simplemente restablecerse o cambiarse en virtud de la necesidad, por tanto, el riesgo de seguridad es mayor y dificulta reparar el daño causado por ataques y fugas de información.
Lo anterior tiene como consecuencia directa que una vez se pierde el control de los datos, es prácticamente imposible que se recupere la privacidad del afectado.
Una reciente publicación en el medio especializado The Record reporta que hackers o piratas informáticos chinos se dedican al robo de datos de reconocimiento facial con los que acceden a las cuentas bancarias de los usuarios en cuestión.
Es más, al riesgo de la suplantación de identidad mediante los deep fakes o deep voices, se suman formas más sofisticadas de usurpación gracias a la inteligencia artificial. Según indica el medio citado, ya es posible crear “huellas maestras” que combinan características comunes de varias personas lo que permite una identificación grupal, pero con el uso de una sola huella.
Según recoge Ctxt, el Comité Europeo de Protección de Datos sostiene que “el reconocimiento facial puede socavar el derecho al respeto de la vida privada y la protección de los datos personales, pero también otros derechos y libertades fundamentales (en particular la libertad de expresión e información, la libertad de reunión y asociación y la libertad de pensamiento, conciencia y religión). Además, puede afectar a la expectativa razonable de anonimato de los individuos en los espacios públicos y plantea cuestiones más amplias desde el punto de vista ético y social”
Cabe destacar que el procesamiento de los datos biométricos realiza una estimación estadística según los elementos comparados, esto quiere decir que nunca ofrece una respuesta binaria de sí o no, sino que entrega una probabilidad de coincidencia. Eso supone que factores como luminosidad, ángulo, calidad de imagen y resolución afectan en el procesamiento de la información.
Hackers y el robo de datos biométricos
La masificación de servicios biométricos para la comprobación de datos y la creación de bancos de imágenes con información privada también ha supuesto nuevas formas de ilícitos por parte de piratas informáticos que han creado sistemas más sofisticados para el robo de esta información y su uso en otros delitos.
Una reciente publicación en el medio especializado The Record reporta que hackers o piratas informáticos chinos se dedican al robo de datos de reconocimiento facial con los que acceden a las cuentas bancarias de los usuarios en cuestión.
La forma en que el grupo de hackers operaba era creando una aplicación con la que se hacían pasar por un agencia gubernamental con la que instalaban malware o troyanos en los dispositivos que descargan la aplicación. Por ejemplo, ofrecían un servicio de pensiones similar al del Gobierno y la gente descargaba la aplicación creyendo que era el original.
En ese sentido, las víctimas grababan un video que la aplicación de los hackers les solicitaba con fines de reconocimiento facial, posteriormente, esa pieza acababa siendo la materia prima de deepfakes con los que accedían a las cuentas bancarias de los usuarios y realizaban las transacciones para el robo.
Bajo una estrategia similar, se reportó en febrero de este año el robo de datos del sistema FaceID por medio de un malware llamado GoldDigger que ya operaba en octubre en sistemas Android, pero que ahora también afecta a dispositivos iOS.
El modus operandi es el mismo, a través de ingeniería social logran que los usuarios descarguen una aplicación, luego graben un video y una vez se obtiene la ‘materia prima’ se utiliza para la creación de deep fakes. Asimismo, el troyano es capaz de interceptar los SMS para mantener el control del teléfono y va recibiendo actualizaciones periódicas para evitar ser detectado por el sistema, la sofisticación llega al punto que los piratas informáticos son capaces de realizar llamadas en tiempo real.
Buenos Aires: políticos, periodistas y ciudadanos bajo el ojo de la IA
Un artículo de Wired de septiembre de 2023 relata el funcionamiento de tecnologías de reconocimiento facial en Buenos Aires, donde el 75% del área capital está bajo vigilancia por video, y cómo fue usado para rastrear no solo a fugitivos, sino también a políticos.
Según la nota, tras cientos de errores en el sistema de detección, un grupo de activistas demandó al gobierno de Buenos Aires, consiguiendo en abril de 2022 una orden judicial para apagar el sistema.
Sin embargo, lo más llamativo del caso fue, que durante la investigación judicial, se pudo determinar que el gobierno solicitó la información personal de más de 10 millones de personas, cuando sólo se debían buscar a alrededor de 40 mil fugitivos.
De este modo, según Wired, los datos personales de la entonces vicepresidenta argentina, Cristina Fernández, fueron solicitados 226 veces, y los del ex presidente Alberto Fernández fueron solicitados 76 veces.
El artículo de Wired concluye con una solicitud al fiscal nacional anticorrupción, Sergio Rodríguez, quien confirmó que los datos biométricos de la autora de la nota, Karen Naundorf, se encuentran entre los datos solicitados por la Ciudad de Buenos Aires.
Entre las personas buscadas se encontraron políticos de diferentes partidos, activistas de derechos humanos y periodistas. Así, el juez comenzó a investigar si la ciudad creaba una base de datos de fotografías de todos los ciudadanos residentes en el Gran Buenos Aires.
Un informe de especialistas en informática solicitado por el jueza auditó el sistema del reconocimiento facial. El informe demostró que no había trazabilidad para saber quién ingresó, añadió o quitó información del sistema. En total, se encontraron más de 15 mil registros de personas que no estaban siendo buscadas por delitos graves. Es decir, sin una solicitud del poder judicial ni base legal para hacerlo.
Sin embargo, en vista que la causa comenzó a causar revuelo el juez fue apartado de la investigación y el ministro de Seguridad de Buenos Aires fue removido del cargo.
El artículo de Wired concluye con una solicitud al fiscal nacional anticorrupción, Sergio Rodríguez, quien confirmó que los datos biométricos de la autora de la nota, Karen Naundorf, se encuentran entre los datos solicitados por la Ciudad de Buenos Aires.
Comentarios
Añadir nuevo comentario