#AI mucho que contar

Lo que no entendemos

– ¿Otro de robots? – Me soltó Ana al verme sacar el libro de la mochila, la biografía de Turing  (Alan Turing, el matemático británico que sentó las bases de la computación moderna y descifró Enigma)…,

– Este no es de robots, es de cómo pensamos…,

– Ajá, y siguió leyendo…,

La verdad es que ya había leído cosas sobre él: artículos, perfiles, incluso había visto la película (The Imitation Game, que simplifica mucho pero al menos lo puso en el mapa), pero me quedaba la sensación de saber lo esencial…, sin haber entrado del todo. Así que este verano me propuse hacerlo bien, leerlo sin prisa, sin titulares, sin Hollywood. Y cuanto más pasaba páginas (o más bien intentaba, porque José no deja mucho margen para la concentración), más claro tenía que lo que me enganchaba no era su genio, ni su máquina‑a, ni siquiera su historia…, era su curiosidad, esa manera suya de no cerrarse a nada, de hacerse preguntas que no estaban en el temario, de buscar patrones donde otros veían ruido.

Y ahí me tocó una fibra, porque yo, sin tener ni de lejos su cabeza ni su formación, siempre he tenido esa misma manía, querer saber cómo funcionan las cosas. Recuerdo que de pequeño me regalaron un libro que se llamaba, “Cómo funcionan las cosas”, venía con dibujos de poleas, engranajes, teléfonos, brújulas…, hasta un submarino. Me lo leía como otros se leían cómics (y mira que me gustan), no para construir nada, solo para entender. Supongo que por eso me gusta tanto Turing, no por lo que construyó, sino por cómo miraba el mundo.

Mientras pensaba en todo eso, entre castillos de arena y voces que se cruzan en la playa, me dije: vale, pero…, ¿Cómo funciona de verdad una IA? No desde la teoría, sino desde lo que vemos cada día.

Porque una IA no razona igual que un humano (aunque lo parezca), su funcionamiento sigue pasos muy concretos que se pueden entender como si fueran un diagrama sencillo: primero se recopilan millones de datos, luego se entrena el modelo, después se generan respuestas a partir de lo aprendido, se ajusta, se prueba y se lanza. Algunos modelos, como ChatGPT (o Gemini), predicen palabra a palabra lo más probable que venga después, como si escribieras frase por frase con una brújula estadística en la mano. Otros, como las GANs, enfrentan dos redes: una intenta crear (una imagen, por ejemplo) y la otra decidir si parece real, y los VAEs intentan simplificar la realidad en variables clave, como si resumieran el mundo en una postal para luego poder recrearlo con detalle. No es magia, pero a veces lo parece.

En el caso de los modelos de texto, como ChatGPT, lo que hacen es entrenarse con millones de frases para detectar patrones y relaciones entre palabras. Si tú escribes “me duele la cabeza y tengo fiebre”, el modelo no “entiende” el dolor, pero reconoce que en frases parecidas suele aparecer la palabra “gripe” justo después, y por eso la sugiere. Lo que hace es predecir la siguiente palabra, una tras otra, como si jugara al juego del “¿qué viene ahora?” en una frase, pero con un cerebro gigantesco lleno de ejemplos. No entiende el contenido ni el contexto como lo haría una persona, solo evalúa probabilidades y genera lo que parece más coherente. A esto se le llama modelo de lenguaje autorregresivo, y aunque suene complejo, el truco está en el volumen y la velocidad, no hay comprensión, hay cálculo masivo. Por eso, si le das un texto claro, suele funcionar muy bien…, pero si le haces una pregunta ambigua o emocional, puede responder con seguridad cosas que no tienen ningún sentido.

Lo fascinante (y peligroso) es que lo hace con tal soltura que cuesta distinguir entre una respuesta entrenada y una respuesta pensada. Pero no son lo mismo, una acierta porque recuerda patrones, la otra porque razona con intención. Y eso, por ahora, las máquinas solo lo simulan.

Aquí es donde viene el problema, porque los modelos actuales no se diseñan para ser entendidos, se diseñan para funcionar, y funcionan cada vez mejor, pero lo hacen desde dentro de redes neuronales gigantes, con miles de millones de parámetros que no explican sus decisiones, solo las ejecutan. A medida que los hacemos más grandes y más eficientes, la lógica interna se vuelve más opaca incluso para sus propios creadores. Sabemos que aciertan, pero no por qué, y si seguimos construyendo así, sin pararnos a interpretarlos, llegará un momento en que serán demasiado complejos para poder explicarlos. Ese es el riesgo, no es que vayan a ser “malvados”, es que serán ininteligibles.

Demis Hassabis, CEO de DeepMind, lo dijo hace nada en una entrevista para Time: “Si no actuamos ahora, podríamos perder la oportunidad de entender cómo funcionan realmente estos modelos antes de que evolucionen más allá de nuestro control”. ¡Ojo!, no lo dice un alarmista, lo dice alguien que los diseña.

Si no los entendemos…, no sabremos cuándo fallan, ni si lo que dicen es cierto, ni cómo han llegado a una conclusión que condiciona una decisión médica, una entrevista de trabajo o una condena judicial. Cuando la lógica se vuelve invisible, la confianza se convierte en acto de fe. (Gödel ya lo intuyó: incluso en los sistemas más precisos hay verdades que no se pueden demostrar…, ahora imagina eso amplificado con millones de parámetros que nadie controla).

Turing, que se pasó media vida imaginando una mente que funcionara como máquina, se habría preocupado al ver máquinas que ya funcionan como mentes…, sin que nadie se pare a preguntarse cómo lo hacen. Hoy le pondríamos nombres: IA explicable, interpretabilidad, transparencia algorítmica…, pero en el fondo hablamos de lo mismo: de no dejar de preguntarnos por dentro lo que parece que ya está resuelto por fuera.

Quizá por eso me enganchan estos perfiles que no caben en una sola casilla, como Da Vinci, como Turing, como tantos que antes que nosotros miraron el mundo con la mezcla justa de ciencia, arte y ganas de entenderlo todo sin necesidad de encajarlo en un plan de carrera. Porque si algo necesitamos ahora, en este mundo de prompts, métricas y urgencias, es gente que no corra tanto por saber, sino por entender. Gente que no necesite ser experta para hacerse buenas preguntas, y gente que, aunque no sea matemática ni invente códigos, siga leyendo libros en la playa solo por el gusto de ver cómo piensan otros.

Yo no soy Turing, ni falta que hace, pero cada vez que José entra el primero al agua, cada vez que Ana me recuerda que hay vida más allá de los robots, y cada vez que una IA responde sin que sepamos cómo…, me acuerdo de ese viejo libro de engranajes, y de lo bien que sienta seguir teniendo curiosidad por las cosas.

Aunque solo sea por eso, ya merece la pena pasar a la página 108.