Suscríbete y obtén entre 20% y 25% de descuento en los cursos de inglés del Instituto Chileno-Británico de Cultura. Válido hasta el 26 de septiembre.
Ya sumamos
de 1000 suscriptores | meta septiembre
Suscríbete recomiéndanos,
compártenos

Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Sábado, 21 de septiembre de 2019
Tendencias 2019

Los 'ataques antagonistas' que engañan a la Inteligencia Artificial

Ricardo Martínez

Si bien la inteligencia artificial nos facilitan la vida realizando tareas de clasificación (como identificar personas que aparecen en Facebook), ha surgido un antagonista que puede confundir a las máquinas. ¿Qué es y cómo funciona?

Imagine que se toma una foto con unos amigos o amigas y la sube a Facebook y, casi al instante, esa plataforma le pregunta si quiere etiquetarse en la foto junto con fulana y zutano. ¿Cómo sucede esa magia? Simple, por medio de la Inteligencia Artificial y en especial por mecanismos que se denominan de “aprendizaje de máquina” (machine learning, en inglés) o, incluso por un nombre más llamativo:  “aprendizaje profundo” (deep learning). Facebook dispone de una tecnología de punta en este sentido a la que se conoce como DeepFace.

DeepFace y otros procedimientos análogos resuelven una de las tareas para las cuales la mente humana (y de muchos animales) es sencillamente experta: los problemas de clasificación. Un problema sencillo puede servir como ejemplo para explicar cómo operan estas tareas de clasificación.

Supóngase que le han servido un plato de pastel de choclo, aprovechando el verano. ¿Usted se lo come con cuchara o con tenedor? Para resolver ese problema ante ese o cualquier otro plato, usted debe considerar cuál es la consistencia de la comida que va en el plato, cuál sería el servicio más adecuado para llevarlo a la boca, entre otras cosas. Luego de que usted ha decidido eso, debe observar los servicios puestos en frente suyo y decidir cuál de ellos es un tenedor y cuál de ellos es una cuchara, y coger el que ha seleccionado. Debe, entonces, clasificar los servicios como “esto es un tenedor” o “esto es una cuchara”.

Todos los días los seres humanos se topan con miles de problemas de clasificación como el anterior . Y los resolvemos de forma tan automática que ni siquiera nos damos cuenta de que son un problema.

Los especialistas en Inteligencia Artificial llevan décadas tratando de enseñarles a las computadoras a clasificar, con resultados que, a la fecha, han sido muy buenos y en algunos casos espectaculares.

Pero para una computadora es otro cuento.

Una computadora tiene que ser, en muchas ocasiones, lo suficientemente hábil como para hacer estas clasificaciones del modo más automático y suave posible. Como en el caso de determinar que esa sección de una foto (imagen) corresponde a un rostro y que el rostro es el de tal persona.

Los especialistas en Inteligencia Artificial llevan décadas tratando de enseñarles a las computadoras a clasificar, con resultados que, a la fecha, han sido muy buenos y en algunos casos espectaculares.

Pero en los últimos dos o tres años han emergido algunos desafíos.

El plátano y la tostadora de pan

Todo comenzó con un plátano y una tostadora de pan. Tal como en ese extraño verso del poeta maldito, conocido como el Conde de Lautréamont, que llamaba a mezclar en el poema un paragua y una máquina de coser, en diciembre de 2017 un equipo de investigadores de Google creó un procedimiento que engatusaba a las máquinas que clasifican.

En este caso se trataba de imágenes. Los investigadores ponían una imagen de un plátano, pero añadían un pequeño sticker o calcomanía con un diseño de lo más psicodélico, y después pedían que la máquina clasificara el objeto de la imagen. Y la máquina se caía: creía que la imagen correspondía a una tostadora de pan.

A este invento se le denominó adversarial patch (algo como “parche antagonista”) y dio inicio a una serie de iniciativas orientadas a engañar a los clasificadores de Inteligencia Artificial. De hecho, un reportaje en profundidad de Science, de mediados de 2018, documentó los enormes avances y peligros en el área de los engaños antagonistas que se iniciaron con el plátano y la tostadora de pan.

Los investigadores ponían una imagen de un plátano, pero añadían un pequeño sticker o calcomanía con un diseño de lo más psicodélico, y trataban que la máquina clasificara el objeto de la imagen. Y la máquina se caía: creía que la imagen correspondía a una tostadora de pan.

En la Conferencia Internacional sobre Aprendizaje Automático (ICML), un equipo de investigadores presentó una tortuga impresa en 3D que engañaba a los sistemas de clasificación porque era clasificada como un rifle. Este resultó un avance mayor que el del plátano y el sticker, porque ahora no se trataba de una imagen bidimensional de una foto, sino que de un objeto volumétrico.

Del mismo modo, este tipo de ataques antagonistas pueden engañar, por ejemplo, a los sistemas de reconocimiento de voz. En ese caso puede añadirse una sutil señal de audio a una grabación, que no sea distinguible por el oído humano, y que haga que los sistemas de clasificación automática entiendan una palabra de modo diferente o confundan la voz de fulana con la de zutano.

De acuerdo con Matthew Hutson, reportero de la revista Science que cubrió la conferencia y estos avances, la comunidad de la Inteligencia Artificial se halla en alerta. ¿Por qué? Simplemente porque cada vez más los clasificadores de Inteligencia Artificial toman decisiones clave en nuestras vidas.

Pongamos el ejemplo de los autos de manejo automático, un proyecto que desarrollan en paralelo mentes como Elon Musk o el mismo Google. Supongamos que uno de esos vehículos llega a una esquina donde hay un signo “Pare”. El auto se detiene y luego continúa su marcha. Pero pensemos ahora que alguien ha pegado un pequeño sticker antagonista en el letrero: un parche antagonista que confunde al reconocedor de letreros del auto y le hace creer que se trata de un signo de “50 Km/hr”. El coche avanzará en vez de detenerse con el peligro inminente de una colisión.

Los ataques antagonistas, sin embargo, no solo conllevan peligros. En la conferencia cubierta por Science, diversos especialistas planteaban que su irrupción hace un par de años hace repensar a toda la comunidad de expertas y expertos en Aprendizaje de Máquina y Aprendizaje Profundo en la naturaleza y los defectos de su empresa, poniendo la alerta no solo en sus riesgos, sino que también en nuevas maneras de mejorar sus procesos.

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Comentarios

Comentarios

Que interesante!

Interesante pero al mismo tiempo inquietante y tal vez esperanzador.

Añadir nuevo comentario