Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Miércoles, 17 de Abril de 2024
Newsletter The Peer Review

¿Pueden las inteligencias artificiales tener conciencia?

Ricardo Martínez

The Peer Review entrevistó entrevistó a Arturo Pérez, investigador en ciencias cognitivas, Psicólogo UDP, MSc in Psychology de la Universidad de Alberta, cuya área de trabajo actual es la Cognición musical, música y redes neuronales artificiales para conversar sobre el debate de las investigaciones y aplicaciones sobre la Inteligencia Artificial.

Admision UDEC

Este artículo es parte del newsletter exclusivo The Peer Review del pasado miércoles 15 de junio de 2022, y ahora se comparte para todos los lectores. 

Hace unos días en una entrevista para The Washington Post el ingeniero de Google, Black Lemoine, declaró, refiriéndose a las conversaciones que había sostenido con LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español): “Si no supiera exactamente qué es, que se trata de programa de computador que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”.

Estas declaraciones vuelven a poner sobre el tapete un debate que viene dándose en las investigaciones y aplicaciones sobre la Inteligencia Artificial al menos desde los años cincuenta del siglo pasado, cual es si dichas entelequias pueden adquirir conciencia y, sobre todo, cuáles podrían ser los procedimientos para determinar aquello. The Peer Review entrevistó a Arturo Pérez, investigador en ciencias cognitivas, Psicólogo UDP, MSc in Psychology de la Universidad de Alberta, y estudiante de doctorado en psicología de la misma universidad, cuya área de trabajo actual es la Cognición musical, música y redes neuronales artificiales (ANN).

TPR: Para partir la conversación con usted, ¿qué es lo que debemos tener en cuenta para sopesar las declaraciones de Black Lemoine?

Arturo Pérez: “Primero que todo, tenemos que acordarnos de que estos son modelos de Inteligencia Artificial que vienen del mundo del aprendizaje de máquinas [machine learning]. La forma en la que operan estos modelos es que “aprenden” -sobre grandes bases de datos- a dar un output, un producto. En el caso de estos modelos de Inteligencia Artificial para chat el texto más que algo que el modelo articule a propósito, es una concatenación de palabras creada probabilísticamente, o sea, que sobre la base de datos con que se entrena el modelo, este aprende qué palabra es más probable que vaya después de otra”.

Saber es un estado psicológico. Por ejemplo, un reloj contiene información y un output sobre la hora, pero no diríamos que sabe la hora.

“Por ahí he leído que hay gente que compara estos modelos con loros bien entrenados: claro, son capaces de reproducir un dialogo que suene coherente, pero eso no significa que sepan. Saber es un estado psicológico. Por ejemplo, un reloj contiene información y un output sobre la hora, pero no diríamos que sabe la hora. Entonces, además de tener que definir primero que carajos significa “saber”, primero deberíamos preguntarnos si el modelo tiene una “mente” o consciencia capaz de tener estados psicológicos como los nuestros o como los de las mentes de otros animales al menos”.

“Sumémosle a eso, que los modelos además tampoco son inteligencias generalizadas, suelen ser modelos para tareas super específicas (reconocimiento facial, chatear, ponerle subtítulos a un videos, etc.)”.

TPR: Sistemas de diálogo como los que estamos comentando descansan en una tecnología de Inteligencia Artificial diferente de antecedentes de los años sesentas y setentas como Eliza o Parry, que eran básicamente repositorios de respuestas tipo con algún método de reglas para responder. ¿Cuál es el avance de LaMDA en este sentido?

Arturo Pérez: “Aquí hay que hacer una diferenciación entre los distintos tipos de Inteligencias Artificiales que hay: porque están las clásicas que se imagina todo el mundo, que son modelos en los que alguien programa las instrucciones y respuestas de la Inteligencia Artificial. Hacer una de esas es el equivalente a parir a un hombre de 40 años de una. De aquí la idea de la leyes de la robótica de Asimov y todo eso”.

“En cambio estos modelos modernos de aprendizaje de máquina (o machine learning como le dicen los anglosajones), de partida en general no son robots ni máquinas como uno suele pensar, pero además son muy distintos porque lo que les programan es una forma de aprender, son algoritmos de aprendizaje, y las respuestas de estos modelos no vienen programadas por alguien, sino que la maquina aprende a dar sus propias respuestas a partir del set de entrenamiento. En ese sentido, los modelos de Deep Learning [que es otra categorización de métodos contemporáneos de Inteligencia Artificial] se parecen más a un bebé que va aprendiendo”.

“La diferencia más grande entre estos dos modelos es su flexibilidad, uno de los modelos antiguos, solo puede responder para aquello que está programado. Estos modelos de aprendizaje de máquinas, en cambio, son capaces de generar respuestas más adaptativas, en base al set de datos con el que se le ha entrenado. Ese vendría siendo uno de los mayores avances de este tipo de modelos”.

“La diferencia más grande entre estos dos modelos es su flexibilidad, uno de los modelos antiguos, solo puede responder para aquello que está programado. Estos modelos de aprendizaje de máquinas, en cambio, son capaces de generar respuestas más adaptativas, en base al set de datos con el que se le ha entrenado. Ese vendría siendo uno de los mayores avances de este tipo de modelos”.

“Ahora, también hay que tener en cuenta que todos los sesgos que puedan tener las bases de datos, y otros ajustes en los parámetros y programación de estos modelos, se traspasan a sus respuestas. Y ya vemos sus efectos en los intentos de aplicaciones en reconocimiento facial y criminalidad, que terminan por generar falsos positivos que afectan en su mayoría a poblaciones marginalizadas”.

“Lamentablemente, las máquinas tampoco tienen ese tipo de consciencia”.

TPR: La pregunta clave parece ser qué es lo que se debe entender por conciencia, muchas veces y no solo en el ámbito académico o científico, sino que también en el de la cultura popular, por ejemplo en el animé, el cómic y el cine, amén de la literatura se ha especulado por cómo podemos entender la conciencia, y además en qué tipo de pruebas se pueden realizar para verificar que una entidad posee conciencia. Han corrido ríos de tinta acerca, por ejemplo, del llamado “Test de Turing”. ¿Podría explicar un poco en qué consisten dichos métodos y cuáles son sus alcances y debilidades?

Arturo Pérez: “Lo más complicado, es definir qué es lo que entendemos por conciencia, porque de eso depende qué hipótesis vamos testeando para verificar si algo tiene o no conciencia.  Neurocientíficos como Anil Seth hacen distinciones respecto a los distintos aspectos de la conciencia, o distintas cosas que llamamos consciencia. Por ejemplo, está el nivel de consciencia, que podemos pensarlo como el continuo entre que estamos despiertos y que estamos inconscientes o dormidos. Por otro lado tenemos el contenido en la consciencia, cuando tenemos consciencia de algo, o cuando algo se nos hace presente. Por ejemplo, nuestros recuerdos están siempre con nosotros, pero cuando hacemos el acto de recordar los traemos a nuestro acceso consciente. Por último está lo que llamamos “consciencia de si”, la capacidad de entender que hay un yo y reflexionar sobre los propios procesos y pensamientos”.

“En humanos, en general intentamos explorar todos estos niveles y tareas, se buscan cambios y marcadores de consciencia en momentos de transición, por ejemplo cuando nos quedamos dormidos”.

“Pero esto para un modelo de IA no sirve, porque no sabemos cómo se vería la consciencia en ese contexto, y existen estos test, como el Test de Turing donde la finalidad es que una IA logre convencer a una persona de que es un humano a través de un chat, pero eso habla más de nuestros criterios intuitivos para hablar de consciencia, o sobre nuestra tendencia a antropomorfizar, que de si hay o no consciencia en una IA”.

La Habitación China de Searle es un experimento filosófico clásico, y consiste en un escenario ficticio en que una persona recibe frases en chino en una habitación, y esta persona arma respuestas juntando palabras/ideogramas/Kanji en base a un conjunto de reglas que se le da. Y claro, si la persona sigue bien las reglas, puede generar respuestas competentes, pero nadie diría que esa persona sabe chino.

TPR: El advenimiento no solo de máquinas como los chatbots (programas que dialogan, tal como LaMDA, con humanos en lenguaje natural) en las últimas décadas y en especial artilugios como GPT-3 han mostrado resultados muy significativos en la generación de enunciados lingüísticos, pero especialistas del pasado, como John Searle han manifestado serias objeciones a que una entelequia que produzca texto no es lo mismo que disponer de conciencia. ¿Puede explicarnos en qué consisten dichas objeciones, en especial la de Searle llamada de “La Habitación China”?

Arturo Pérez: “Claro, la Habitación China de Searle es un experimento filosófico clásico, y consiste en un escenario ficticio en que una persona recibe frases en chino en una habitación, y esta persona arma respuestas juntando palabras/ideogramas/Kanji en base a un conjunto de reglas que se le da. Y claro, si la persona sigue bien las reglas, puede generar respuestas competentes, pero nadie diría que esa persona sabe chino. De esta misma forma se dice que las inteligencias artificiales como bots de chats altamente competentes, no saben realmente hablar o no entienden el contenido de las frases que producen”.

“Como mencioné antes, el texto que produce el modelo de Inteligencia Artificial es un encadenamiento de palabras hecho en base a probabilidades, que el modelo aprende a partir de la base de datos con la que se ha entrenado. Es capaz de generar un texto, pero no es capaz de tener una compresión semántica de lo que genera, no entiende lo que significa ni tiene la capacidad de entender porque no tiene una mente/conciencia. Al menos hasta donde sabemos, pero ahí nuevamente caemos al debate de qué es la consciencia, cómo la definimos, y cómo testeamos esas hipótesis”.

TPR: Hay dos aspectos respecto de las objeciones anteriores que presentan un problema mayor para la Filosofía de la Mente, a saber, en primer lugar, si se puede asignar conciencia a animales, en especial los cordados (que disponen de un Sistema Nervioso Central como también la tiene la especie humana), lo que ha sido defendido por ejemplo por la Declaración de Cambridge, que se encuentra próxima a cumplir una década, y en segundo término, si es que la conciencia es una experiencia “interior” y no observable directamente en otras personas, ¿cómo podemos asegurar que dicha conciencia está en esas otras personas -lo que se denomina “El Problema de los Zombis filosóficos”?

Arturo Pérez: “Algunos, dirían que eso es imposible, porque al ser la experiencia consciente, una experiencia subjetiva en primera persona, es difícil (si es que no imposible) testearlo. Así como es imposible que yo sepa si el rojo que ves tu es idéntico al rojo que veo yo”.

“Ahora, como yo se que tus ojos tienen una estructura y funcionamiento casi idénticos a los míos, yo podría creer que ves un rojo bastante similar al mío. Lo mismo con la consciencia. Y recordando que los humanos somos mamíferos con una historia evolutiva, sería loco creer que la consciencia nos cayó solo a nosotros por designio divino. Con eso en mente, es posible que en otros animales haya procesos recursivos similares a lo que llamamos consciencia en humanos (capacidad para reflexionar sobre los propios procesos, entre otras cosas)”.

“Ahora, volviendo un poco más a la pregunta, el problema que planteas es cercano a lo que Chalmers llama El Problema Difícil de la Conciencia: que si bien podemos describir procesos neuronales en torno a la conciencia, no podemos explicar por qué esa configuración de procesos físicos da origen a la experiencia subjetiva de la conciencia, cuando no hay nada externo que nos dé señales de ese tipo de actividad. Este problema está en la base de preguntas como “¿si logro reproducir los procesos cerebrales perfectamente con cables y chips, ¿voy a crear una conciencia?””.

TPR: El cientista cognitivo Ned Block ha tuiteado, respecto de las afirmaciones de Black Lemoine, que, “Hay un hecho obvio sobre los ÚNICOS sistemas de los que estamos SEGUROS que son sensibles (“sentient”): su procesamiento de información se basa principalmente en el flujo de información electroquímica en el que las señales eléctricas se convierten en señales químicas (neurotransmisores) y vuelven a ser señales eléctricas. Seríamos tontos si supusiéramos que ese hecho no es importante”. ¿Qué dice la comunidad académica sobre este tipo de enfoques?

Arturo Pérez: “La comunidad académica se agarra de las mechas en Twitter jaja”.

“Por muchos años la metáfora del computador fue la explicación por default: que la mente funciona como un programa corriendo en el hardware del cerebro, y bajo esa idea, uno debería poder emular el cerebro como cuando jugamos SuperNintendo en nuestros celulares Android”.

“Y si bien, en términos muy laxos podríamos decir que el cerebro procesa información, las computaciones que llevan a cabo las neuronas, y las dinámicas electroquímicas de estas, son mucho más complejas que simplemente estar prendidas y apagadas como un estado binario, o un switch que se puede simular computacionalmente. A lo que apunta Block va para este lado, probablemente hay elementos fundamentales para el surgimiento de la consciencia en estos procesos biológicos, que quizá no puedan ser reproducidos por estas máquinas, y por lo tanto, es difícil que su conciencia sea parecida a la nuestra, si es que fuera posible que la tuvieran”.

“Aquí Block también hace señales de dónde está él parapetado en torno a las preguntas que surgen del “problema difícil de la consciencia” que mencionamos antes, la consciencia sería en primer lugar, un fenómeno biológico”.

“Aquí Block también hace señales de dónde está él parapetado en torno a las preguntas que surgen del “problema difícil de la consciencia” que mencionamos antes, la consciencia sería en primer lugar, un fenómeno biológico”.

TPR: Finalmente, la adscripción de conciencia a las máquinas parece, luego de estas declaraciones de Lemoine, retrotraerse a una época previa a los razonamientos que ya hace más de cuarenta años llevaban a cabo autores como los citados Searle o Block (que venía hablando de estos temas muchísimos lustros antes de su posteo de la semana pasada), ¿es el surgimiento de estos sistemas de diálogo computarizado -LaMDA, GPT-3- en el estatus actual de su desempeño que parece extraordinario en su prosa y en sus contenidos un punto de quiebre respecto de esta discusión, o es solo más de lo mismo solo que con más “fuerza bruta computacional”?

Arturo Pérez: “Yo creo que los logros de estas inteligencias son bastante grandes, y definitivamente desde los inicios de 2010 más o menos que hay desarrollos grandes en el campo de lo que la inteligencia artificial puede hacer a través del aprendizaje de máquinas (Machine Learning, Deep Learning, algebra lineal en IA, o como queramos llamarle). En ese sentido, no son más de lo mismo”.

Estamos ante la paradoja de Bonini, se han creado modelos de inteligencia tan complejos, que más que ser una simplificación que nos ayude a entender cómo funciona la inteligencia, se han vuelto tan inentendibles como la propia mente humana”.

“Pero, por otro lado, estos modelos de IA son tan complejos que quienes los crean, no entienden completamente que es lo que ocurre dentro del modelo. Los programadores solo conocen el algoritmo de aprendizaje, no lo que la IA aprende que es pertinente, a partir de la base de datos con que se entrena. Estamos ante la paradoja de Bonini, se han creado modelos de inteligencia tan complejos, que más que ser una simplificación que nos ayude a entender cómo funciona la inteligencia, se han vuelto tan inentendibles como la propia mente humana”.

“Por esto mismo, es que hoy en día hay también un movimiento muy grande que está llamando la atención hacia la aplicación a ciegas de estos modelos. Como mencionaba antes, los sesgos en las bases de datos y programación de estos modelos se traspasan a sus predicciones.  Y en ese sentido, los tremendos avances en poder computacional de estos modelos, son un arma de doble filo, que no debiera estar nunca lejos de un análisis crítico por parte de la filosofía y las ciencias sociales”.

Algunos textos de INTERFERENCIA sobre estos temas

- Los 'ataques antagonistas' que engañan a la Inteligencia Artificial

El rostro post-humano que Instagram promueve como estereotipo de belleza

Por qué la Inteligencia Artificial es racista y sexista

De las 'fakenews' a las 'deepfake'

Tecnochovinismo: la confianza ciega en las máquinas

Estos serán los ganadores… según el Machine Learning

Los peligros del reconocimiento automático de emociones de la inteligencia artificial

Gonzalo Mena: "El Big Data es la versión final del neoliberalismo"

GPT-3: Los detalles del robot que responde todo tipo de preguntas



Los Más

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.



Los Más

Comentarios

Comentarios

Añadir nuevo comentario