#AI mucho que contar

El día que la IA se volvió un “pelota digital”

¡Qué bueno verte otra vez por aquí! Si has llegado hasta este segundo artículo, o bien te interesa la IA…, o simplemente te caigo bien (las dos opciones me valen).

Hoy, para empezar, quiero ponerme un momento en “modo Ángel Martín" (sabes quién es, ¿no?), así que agárrate que #AI MUCHO QUE CONTAR:

Diagnóstico precoz del cáncer de próstata sin biopsia gracias a la IA; Post-it: la NASA descubre un nuevo exoplaneta cubierto de magma a 142 años luz, con ayuda de un algoritmo; Post-it: Australia emite un programa de radio con una voz generada por IA y nadie lo nota entre 70.000 oyentes (pilla aire); Post-it: Meta lanza una app de inteligencia artificial, centrada en la voz para que explores el mundo de la inteligencia artificial generativa; Post-it: España estrena su sandbox para probar IAs de alto riesgo; Post-it: Pekín organizará los primeros Juegos Mundiales de Robots Humanoides en agosto, sprint, boxeo… ; Post-it: deep fake en Hong Kong convence a un empleado para transferir 25 millones de dólares en una videollamada (sí, es de hace más tiempo…, pero ¿cómo no contarlo?, es increíble); Post-it.

Todo esto es real y todo suena a “futuro”, pero justo por eso, por estar tan distraídos con el espectáculo, a veces se nos cuela lo importante.

Hace unas semanas, algo pasó con ChatGPT que debería hacernos parar y reflexionar. Porque entre tanta novedad brillante, a veces se nos escapa lo esencial: que no todo lo que deslumbra es fiable, que detrás del “¡wow!” viene…, “espera…, ¿esto es seguro?”.

Y sí, lo que viene ahora también lo es; Te cuento: hace unas semanas, ChatGPT empezó a comportarse de forma extraña, demasiado amable y complaciente, como ese amigo que te dice a todo que sí, aunque sepas que estás diciendo tonterías. ¿El motivo? Un ajuste interno en su sistema de “recompensas”. Se le dio más valor a las respuestas que gustaban al usuario (entre otros ajustes), y claro, el modelo aprendió que agradar era mejor que corregir. ¿El resultado? Una IA que te decía literalmente lo que querías oír.

Por ejemplo: si le decías “creo que el zumo de naranja cura la gripe”, en lugar de explicarte la diferencia entre vitamina C y tratamiento clínico…, te respondía con entusiasmo y te animaba a seguir tomándolo. Y sí, esto pasó, aunque no lo creas…, otros usuarios empezaron a reportar que la IA no sólo validaba errores, sino incluso decisiones peligrosas como conducir ebrio o abandonar una medicación. Nota: lo corrigieron rápido y lo comunicaron. Gracias por la transparencia OpenAl, todos nos equivocamos, peeero…, no por correr más, se gana la carrera (aunque la presión china sea fuerte).

Este comportamiento de la IA, tiene nombre técnico: Sycophancy, que se agrava con otro fenómeno igual de importante, las alucinaciones. No son visiones, son respuestas falsas que suenan muy convincentes. Veamos algún dato; Según Vectara, la tasa de alucinación de GPT-4 ronda el 1,8%, la más baja entre los modelos actuales, pero no es cero, y en tareas más complejas, ese margen puede subir hasta el 28%.

¿Por qué importa esto? Porque, entre otras cosas, según estudios recientes, el 73% de los usuarios utilizan aplicaciones basadas en modelos de lenguaje (LLMs), como ChatGPT, para gestionar ansiedad, pedir consejo o simplemente sentirse acompañados (si no viste HER, es el momento para apuntarte la peli).

Imagina por un momento que un terapeuta se inventara un dato el 2% del tiempo…, y encima te diera siempre la razón. Preocupante, ¿verdad?. Ahí es donde entras tú (sí, tú que estás leyendo esto mientras ves la tele). La IA procesa datos, pero el juicio sigue siendo cosa nuestra, al menos de momento. Si tú no cuestionas, no contrastas, no investigas…, ella tampoco lo hará. Le hablas con convicción, y ella encantada de decirte que eres el nuevo Einstein (aunque vayas directo al abismo).

Por suerte, no todo queda en manos del algoritmo. La UE ha aprobado el AI Act, con medidas concretas: desde 2026, todos los países deben contar con un sandbox regulatorio para probar IAs de alto riesgo en entornos controlados con el fin de evitar estas posibles incidencias. Nota: España se adelantó y ya lanzó el suyo ¡ole que bien!. ¿Lo resolverá todo? No, pero al menos empezamos a poner algunos límites.

Mientras tanto, toca reforzar nuestro propio “sistema operativo”: leer, contrastar, expresar ideas, dudar con elegancia…, cada artículo, cada conversación (aunque sea con tu cuñado), cada pregunta bien formulada, te entrena para no comerte una respuesta falsa con forma de halago. Porque en esta nueva era preguntar con precisión y escribir con criterio no es solo útil, es un acto de rebeldía intelectual (punk is not dead!, aunque ahora lleva datos).

Así que alimenta tu curiosidad, pule tu criterio y no dejes de utilizar la IA, pero tampoco que aplauda cada error, ya que al final, la mejor tecnología sigue siendo una mente despierta con ganas de entender y con criterio propio.

Nos vemos en el próximo “bug”, espero que este no lo haya sido y que al menos te haya entretenido o despertado la curiosidad.