Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Jueves, 7 de Mayo de 2026
[Columna]

Libros preciosos, inútiles

Ricardo Martínez-Gamboa

El problema de exigir que toda investigación deba terminar en un producto transable, dinero o trabajo inmediato, es que destruye el futuro. Como bien me dijo un biólogo chileno hace unos 15 años en un debate similar: si hubiésemos seguido esta lógica utilitarista, Charles Darwin jamás habría escrito El origen de las especies; lo habríamos obligado a dedicar su vida a cultivar sandías con menos pepas. Y sin Darwin, sin Newton, sin Bohr, o sin los lingüistas de los años 50, nuestra comprensión del mundo sencillamente se iría a las pailas.

Ayer el presidente de Chile, José Antonio Kast, en una actividad en Puerto Montt, cuestionó duramente el impacto de los recursos destinados a la investigación universitaria, afirmando que muchos estudios terminan convertidos en "un libro precioso", pero que no generan ningún trabajo ni utilidad práctica. Como era de esperarse, la comunidad académica e investigadora entró en pánico ante la amenaza de una visión tan utilitarista sobre la inteligencia humana.

Para responder a esta provocación, me acordé de un esquema fascinante propuesto en 1997 por el académico Donald Stokes, conocido como "El Cuadrante de Pasteur". Stokes explicaba que la investigación científica se mueve en dos ejes: el nivel de abstracción (la búsqueda de conocimiento puro) y su nivel de aplicación práctica. En un extremo tenemos a Niels Bohr, cuya investigación cuántica era altísimamente abstracta y sin aplicación directa en su época; en otro, a Louis Pasteur, que hacía ciencia básica profunda pero con aplicaciones vitales inmediatas, como las vacunas; y finalmente a Thomas Alva Edison, la encarnación de la pura aplicación práctica sin mayor interés por el conocimiento fundamental. Kast, bajo esta óptica, nos exige que todos los académicos seamos Edison y, con suerte, dejaría pasar raspando a Pasteur.

En mi clase de Psicolingüística de hoy di un ejemplo perfecto de por qué esta exigencia es un error garrafal. Les explicaba a mis estudiantes cómo los seres humanos procesamos y almacenamos el léxico. La evidencia indica que cualquier niño expuesto al lenguaje aprende alrededor de 10 palabras nuevas al día entre los 4 y los 18 años, de manera que un estudiante que ingresa a la universidad maneja cerca de 50.000 palabras. ¿Cómo las aprende? No es leyendo el diccionario. El 90% de ese vocabulario lo deducimos por puro contexto. Esta idea fue formulada en 1957 por el lingüista británico J.R. Firth con una máxima brillante: "Conocerás una palabra por las compañías que frecuenta".

Para demostrarles el principio de Firth, les leí los dos primeros párrafos de un cuento clásico de J.D. Salinger, Un día perfecto para el pez banana. La historia parte describiendo a Muriel Glass en un hotel, esperando una llamada telefónica mientras hace cosas mundanas: lee una revista, mueve un botón de su blusa, y se pinta las uñas de la mano izquierda. El texto dice que, con el pincelito del esmalte, ella "se repasó una uña del dedo meñique acentuando el borde de la lúnula". Al terminar de leer, les pregunté a los estudiantes: "¿Qué es la lúnula?". Ninguno había escuchado la palabra antes, pero la respuesta fue inmediata: es esa parte blanquita en la base de la uña. Sin diccionarios, la mente humana trianguló las "compañías" de la palabra (esmalte, pintar, uña) y decodificó el significado exacto.

Bajo el criterio de Kast, la teoría de Firth de 1957 es un perfecto "libro precioso e inútil". ¿Qué aplicación práctica tenía saber cómo deducimos palabras por su contexto, más allá de armar diccionarios o entretener lingüistas? Absolutamente ninguna. Parecía ciencia muerta.

Pero la historia tiene una vuelta de tuerca monumental. En el año 2013, un investigador de Google llamado Tomas Mikolov tomó esta idea abstracta de Firth y la operacionalizó matemáticamente. Tomó corpus con millones de palabras y empezó a medir qué palabras rodeaban a otras (cinco a la izquierda y cinco a la derecha), asignándoles un peso matemático. Mikolov convirtió las palabras en vectores numéricos dentro de un espacio geométrico. El resultado fue magia pura: las palabras similares quedaban agrupadas, creando lo que hoy llamamos "geometría semántica". Mikolov demostró que si tomas el vector de la palabra "Rey", le restas "Hombre" y le sumas "Mujer", el resultado matemático exacto es "Reina". Si a "París" le restas "Francia" y le sumas "Italia", llegas a "Roma".

El sistema que Mikolov inventó se llamó word2vec y se convirtió en el estándar mundial. ¿Saben cuál es el hijo directo de esa tecnología? ChatGPT, Claude y todos los Modelos de Lenguaje Grande (LLM) que hoy revolucionan el planeta. La máquina de inteligencia artificial que hoy redacta correos, genera códigos y a la que le ingresamos un prompt, está construida sobre la implementación matemática de un lingüista abstracto de 1957 que investigaba el contexto de las palabras.

El problema de exigir que toda investigación deba terminar en un producto transable, dinero o trabajo inmediato, es que destruye el futuro. Como bien me dijo un biólogo chileno hace unos 15 años en un debate similar: si hubiésemos seguido esta lógica utilitarista, Charles Darwin jamás habría escrito El origen de las especies; lo habríamos obligado a dedicar su vida a cultivar sandías con menos pepas. Y sin Darwin, sin Newton, sin Bohr, o sin los lingüistas de los años 50, nuestra comprensión del mundo sencillamente se iría a las pailas.

En este artículo



Los Más

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan artículos gratuitos este mes.

En este artículo



Los Más

Comentarios

Comentarios

Añadir nuevo comentario