Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Martes, 24 de noviembre de 2020
Gonzalo Mena

Experto en Inteligencia Artificial: "Es ingenuo pensar que será como la humana"

Ricardo Martínez

inteligencia-artificial-03.jpg

Ilustración: Ebankingnews
Ilustración: Ebankingnews

Conversamos con un investigador en interfaces cerebro-computador de Oxford, quien opina que “es más fructífero pensar en las consecuencias sociales de la tecnología en vez de embobarse con la ciencia ficción”. Este diálogo se dio con un artículo del MIT Technology Review de fondo en el que se cuestiona si investigar en la AGI lleva hacia algún lado.

Desde hace unos diez años el área del deep-learning experimenta aceleradamente avances de alto impacto público. Esto es desde cuando el desarrollo de supercomputadoras, en específico por parte de las grandes empresas enfocadas a la Inteligencia Artificial, fue potenciado con la cada vez mayor disponibilidad de miles de millones de datos en áreas que van desde las imágenes- hasta volúmenes inverosímiles de texto.

En dicho contexto ha empezado a surgir cada vez con más fuerza, desde los divulgadores que comparten estos avences, la idea de que la tecnología contemporánea se está acercando al hallazgo de una Inteligencia Artificial General (IAG). En ese contexto, la publicación de MIT Technology Review; Inteligencia artificial general: ¿estamos cerca y tiene sentido intentarlo? no solo llama a poner paños fríos sobre aquellos entusiasmos, sino que también a cuestionarse si dicha empresa lleva a algún lado.

Gonzalo Mena se dedica al desarrollo de algoritmos y teoría de machine learning, y también tiene experiencia en el desarrollo de interfaces cerebro computador. Actualmente trabaja en investigación en Oxford mediante un Florence Nightingale Fellow en el Departamento de Estadística de dicha universidad, y nos ha contestado a algunas consultas sobre este tema.

- ¿Qué significa una Artificial General Intelligence, AGI?

- La AGI -o AI fuerte- es una versión glorificada de la inteligencia artificial, que en su versión original propone que los avances de la ciencia de la computación plasmados en algoritmos pueden imitar, asistir o reemplazar habilidades del cerebro y la mente humana. En la AGI hablamos de habilidades de tipo superior, como pensar, imaginar, razonar, tener sentido común, tener conciencia, tener teoría de la mente [imaginar otredades].

- Los múltiples avances, como AlphaZero -el programa desarrollado por Google DeepMind capaz de vencer en distintos juegos, como go o ajedrez a los programas más avanzados en su área de manera más generalista que ellos- o GPT-3 -el generador de texto que parace poder responder a preguntas de la más diversa índole, desarrollado por OpenAI- de los últimos años, ¿no van en el sentido de una AGI?

- Ciertamente que los avances han sido muy grandes y dan para soñar cualquier cosa. Es posible que signifiquen una evolución hacia la AGI, pero eso depende más bien de qué tan estrictos seamos en definir AGI. Si vamos a hablar de una máquina consciente que se vengará de nosotros, como plantea el experimento mental de Roko’s Basilik [una hipótesis que plantea que en el futuro una superinteligencia artificial cobraría cuentas por todo el daño que hicieron los seres humanos antes de su existencia], entonces definitivamente no, porque los paradigmas usuales de computación y aprendizaje mediante algoritmos [machine learning] no sugieren que estemos ni cerca a dicho modelo. De hecho, gente como Judea Pearl ha planteado de que la gente que hace AI le ha hecho el quite a abordar los problemas que nos hacen realmente humanos, como la capacidad de hacer inferencia causal [observar por ejemplo si los riesgos denotan causalidades]. 

Además todos estos logros como Alpha-Zero y GTP-3 aunque sean impresionantes requieren de demasiado poder computacional, gastando mucha más energía que un cerebro real. Y ahí entra la parte del negocio y marketing, porque las empresas como OpenAI están compitiendo en tratar de impresionar a la audiencia, y así mover los engranajes de los ciclos de inversión.

De todas maneras, hay que reconocer que estos avances han traído nuevas herramientas que empujan la barrera de lo que entendíamos que las máquinas pueden hacer mediante algoritmos. Por ejemplo, GTP-3 se basa en una arquitectura de  Transformer, un modelo que se ha vuelto extremadamente popular e implementa la función cognitiva de la atención. Además, los resultados muestran que efectua lo que se conoce como Few-shot-learning, un fenómeno un poco sorprendente en el que no se necesitan mostrar muchas muestras para que el programa “aprenda”.

- ¿Qué tan necesario es que exista o se desarrolle una AGI?

- Esta pregunta es bien amplia y la respuesta depende de los niveles personales de tecnofobia/tecnofilia, y de cómo entendemos en general los otros contextos políticos. En particular no me molestaría vivir con AGI, porque en su enfoque actual no llegará a ser consciente. Lo preocupante es más bien cómo se van produciendo procesos de automatización que cambian radicalmente los mercados laborales y dejan a mucha gente sin trabajo, y esas personas son las que tuvieron menos educación y/o tienen menos flexibilidad para adaptarse a estos cambios. Esto puede ser una gran fuente de tensión política, ya lo está siendo en Estados Unidos -algunos dicen que por eso ganó Trump-. Entonces creo que es más fructífero pensar en ese tipo de preguntas relacionadas a las consecuencias sociales de la tecnología en vez de embobarse con un discurso de ciencia ficción.

- Según el modelo de Rodney Brooks, más que buscar una AGI, lo que hay que buscar es una A-Life, que es la idea de que la inteligencia en las especies animales surgió en relación dinámica con la necesidad de supervivencia y que, en consecuencia, elaborar inteligencias artificiales sin atender a las necesidades de la biología está desencaminado ¿qué opinion tiene usted de dicha perspectiva?

- Estoy muy de acuerdo, yo no me preocupo de que estas máquinas vayan a ser conscientes porque eso no se puede replicar en un chip. Mi opinión acá es la de Francisco Varela, que planteó en sus diálogos con el Dalai Lama y también cuando refutaba la tesis de Roger Penrose -el Premio Nobel de física- sobre la conciencia. El punto principal del argumento es rehusarse a describir al cerebro como un computador, y esto porque el cerebro y la mente se constituyen en un loop de interacciones con un cuerpo y con un mundo. Esta hipótesis la plantea también Hans Jonas, que nota que emoción y movimiento son palabras similares [con base en motion, en inglés], porque el animal se tiene que mover para subsistir.

Entonces el problema con el discurso de AGI es que niega toda la dimensión existencial de que para que haya emergido algo tan vasto como la conciencia es porque primero hubo vida y la vida evolucionó durante años y tuvo que generar maneras de arreglárselas, en la constante batalla por mantener la integridad y no morir. Pensar que eso se va a generar con un algoritmo como los de ahora me parece ingenuo.

- En una charla reciente, usted y un colega han utilizado el conecpto de "Otoño de la Inteligencia Artificial", en clara alusión a los "Inviernos de la Inteligencia Artificial", el que se produjo respecto de las redes neurales artificiales a fines de la década del sesenta o el de la Inteligencia Artificial de Reglas y Representaciones, que sucedió a inicios de la década de los ochenta ¿A qué se refiere específicamente dicho "Otoño", y cómo se relaciona con esto que hemos estado conversando?

- Junto a mi amigo Gonzalo Munoz de la Universidad de O'Higgins mencionamos este concepto que se refiere a que creemos que es sensato adscribir a una postura ni demasiado optimista, como sería un “Verano de la AI, o pesimista; “Invierno de la AI”. Esto viene de notar de que, si bien el entusiasmo ha sido grande, ha alcanzado una especie de meseta. Algunos países ya no están invirtiendo tanto y últimamente han aparecido muchas voces advirtiendo de no sobre-dimensionar los resultados, y hemos visto algunas promesas no cumplidas.

Hace algunos años Geoffrey Hinton decía que los radiólogos tenían que buscarse otro trabajo porque los iban a reemplazar los algoritmos. Pero ahora vemos que en muchos casos las redes neuronales no logran mejorar el diagnóstico médico, las predicciones a veces no son mejores que una simple regresión, ni son particularmente robustas, lo que uno esperaría de un sistema inteligente. Eso pasó con el Covid, por ejemplo, cuando el comportamiento de los humanos cambió mucho respecto a lo esperado, y los métodos predictivos de demanda basados en AI colapsaron. Eso nos da a pensar de que no estamos en la era AGI, pero aún así no podemos permanecer escépticos a los tremendos avances que se han producido, y tener cautela a los posibles efectos negativos.

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

Comentarios

Comentarios

Añadir nuevo comentario