Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Sábado, 19 de septiembre de 2020
Derecho a la privacidad

Los peligros del reconocimiento automático de emociones de la inteligencia artificial

Ricardo Martínez

hipertextual.jpg

Foto: Hipertextual
Foto: Hipertextual

Las técnicas de affect-recognition son uno de los nuevos peligros y amenazas a la identidad y la privacidad de las personas. Esto porque, puestas en malas manos, pueden llevar a una distopía de grandes proporciones. AI Now Institute de The New York University propone prohibirlo en áreas críticas.

Supongamos que usted está participando de una protesta en el centro de Santiago (o Concepción o Valparaíso). Va a cara descubierta, porque no quiere meterse en problemas por la Ley Antiencapuchados. Desde lo alto de un edificio una cámara sigue sus movimientos y registra los mismos. Luego estos son enviados a un servidor central que, en instantes, y a partir de las imágenes de su rostro y de su cuerpo es capaz de identificarle revisando millones de fotografías de chilenas y chilenos que se albergan en su base de datos. Días más tarde llegan los carabineros a su casa y lo arrestan, casi como en la escena que da inicio a El Proceso de Franz Kafka.

Esta situación ficticia que parece más propia de las novelas distópicas o de la ciencia ficción es ya una realidad en muchos lugares del mundo como China o diversos estados de los Estados Unidos, como consigna un texto de WIRED de inicios de este 2019. Y se trata de una situación extremadamente delicada y grave, porque vulnera la privacidad de las personas, pero, por sobre todo el derecho a la identidad.

Del face-recognition al affect-recognition

INTERFERENCIA ya ha cubierto en diversas ocasiones las implicaciones bioéticas de los mecanismos automatizados del reconocimiento facial y de personas, como, por ejemplo, a partir de la nota en que se indicaba que el Reconocimiento facial en el porno puede afectar a 100.000 mujeres o aquel que advertía de Las ventajas y peligros de la voz humana como fuente de información. Del mismo modo, en uno de los primeros podcast que se elaboraron para Cachái, se planteaba lo de Un superpoder humano: el reconocimiento facial.

El reconocimiento de la identidad individual del otro es uno de los fenómenos de la cognición humana más estudiados, desde el inicio de la neurociencia contemporánea, lo que le valió, por ejemplo, a Roger Sperry hacerse del Premio Nobel a inicios de la década de los ochenta.

Diversas investigaciones estiman que un ser humano promedio puede reconocer a partir del rostro las identidades de unas cinco mil personas, que no solo son familiares, amistades, sino que también las de personas conocidas públicamente. En el caso de la identificación de personas por el timbre de voz estos valores no llegan a ser tan altos, pero alcanzan latamente los varios centenares.

Ese superpoder fue uno de los temas más abordados cuando las redes neurales de la generación de la inteligencia artificial de mediados de los ochenta, comandada por David Rumelhart y James McClelland, cuando se pretendió simular los procesos cerebrales humanos con este tipo de herramientas. Y los avances, como ha hecho ver hace un par de años The New York Times, han sido catastróficamente espectaculares. Y no es algo que se encuentre lejos de usted: cada vez que Facebook le sugiere etiquetar a una amistad que aparece libando una piscola en una foto que usted acaba de subir, esos procesos están operando.

A todo este tema se le conoce como fase-recognition (reconocimiento de rostros e identidades). Pero, esta área ha evolucionado aún más. Ahora lo que se está haciendo en este dominio es entrar al affect-recognition (reconocimiento de emociones).

Desde que Charles Darwin en uno de sus trabajos menos conocidos estudiara en la segunda mitad del siglo XIX la Expresión de las emociones en humanos y animales se ha desarrollado, en el contexto de las ciencias del comportamiento, pero muy especialmente al interior de las ciencias cognitivas, la idea de que las expresiones faciales son capaces de comunicar mucho sobre la identidad, la personalidad, las características interiores de las personas.

Uno de los mayores especialistas en el área es Paul Ekman, quien, desde la década de los 70, planteó que existían emociones básicas y universales en el homo sapiens, que permitían acceder a la mente de las personas, como la alegría, la ira, o la sorpresa (esto, como se puede colegir, es la base de la película de Pixar, Intensamente).

Concomitantemente, los seres humanos no somos solo especialistas y tenemos el superpoder de reconocer los rostros, sino, que, como alguna vez dijo Wittgenstein, reconocer la emoción o los estados internos en esos mismos rostros.

Pero, hay más. 

A partir del reconocimiento de las emociones, no solo accedemos a la interioridad de una individua o individuo, sino que a sus tendencias más generales: personalidad, inclinaciones, malestares, dolencias.
Y la inteligencia artificial, sobre todo la de la generación de las redes neurales contemporánea, conocida como deep-learning, está avanzando a pasos agigantados en simular esta actividad especializada en los homo sapiens, solo que ahora, a partir de bases de datos como la China, mencionada más arriba, que dispone de miles de millones de datos específicos. 

Estos datos pueden ser usados para la toma de decisiones, como caracterizar los traumas psicológicos de las personas, su habilidad para desempeñar una determinada tarea, e incluso cuál podría ser el resultado de un proyecto que emprenden. Todo al borde del abuso de la intimidad.

Un reporte de este mes de diciembre de 2019 del AI Now Institute de The New York University es absolutamente enfático en concluir que “los reguladores deberían prohibir el uso del reconocimiento de afectos en decisiones importantes que impactan la vida de las personas y el acceso a las oportunidades".

Según el reporte, "hasta entonces, las compañías de inteligencia artificial deberían dejar de implementarlo. Dados los fundamentos científicos controvertidos de la tecnología de reconocimiento de afectos, una subclase de reconocimiento facial que pretende detectar cosas como la personalidad, las emociones, la salud mental y otros estados interiores, no se debe permitir que juegue un papel en las decisiones importantes sobre la vida humana, como quién es entrevistado o contratado para un trabajo, el precio del seguro, las evaluaciones del dolor del paciente o el rendimiento de los estudiantes en la escuela".

En consecuencia, AI Now Institute señala que "los gobiernos deberían prohibir específicamente el uso del reconocimiento de afectos en los procesos de toma de decisiones de alto riesgo”.

Como una vez señalara el filósofo ruso de origen judío Emmanuel Lévinas, en el contexto de su Filosofía del rostro: “el rostro del otro me ordena el “¡no matarás!”. Este lema es el non-plus-ultra de la responsabilidad acerca de la individualidad y la privacidad de los seres humanos.

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Comentarios

Comentarios

Añadir nuevo comentario