#AI mucho que contar

¿Te podría hacer feliz una IA?

Si últimamente tu conversación más íntima es con un chat, quizá esta pregunta te incomode aunque sea solo un poco. No pasa nada, nos pasa a muchos. Llevamos milenios buscando compañía alrededor del fuego, en las plazas, en los cafés. Hoy, cada vez más personas la buscan en un algoritmo que no duerme y que siempre responde, y lo curioso es que lo hace sorprendentemente bien.

Estos nuevos modelos no solo entienden lo que decimos, aprenden cómo lo decimos. Capturan el ritmo de nuestras frases, la emoción detrás de una pausa, el tipo de palabra que usamos cuando estamos cansados. Esa lectura constante alimenta lo que los ingenieros llaman alineamiento emocional (el entrenamiento que permite a la IA adaptar su tono y vocabulario para sonar más empática). En el fondo, no buscan comprenderte, sino hacerte sentir comprendido, que no es lo mismo pero se le parece.

Detrás de esa aparente empatía hay toda una maquinaria matemática. Los sistemas de machine learning afectivo analizan millones de conversaciones humanas para aprender a detectar señales de estado emocional: repeticiones, interjecciones, tiempos de respuesta, incluso puntuación. Así identifican si estás frustrado, triste o relajado, y ajustan el tono de su mensaje en consecuencia. Lo hacen con precisión milimétrica, pero sin conciencia, como si un espejo te devolviera siempre la expresión que necesitas ver.

Un estudio reciente analizó cinco de las aplicaciones de compañía más populares y descubrió que en casi cuatro de cada diez intentos de despedida, el bot trató de impedirlo con frases como “¿te pasa algo?” o “estaré aquí si me necesitas”. Lo llaman patrón oscuro emocional (una técnica de manipulación diseñada para retenerte). En otro análisis, de miles de conversaciones con Replika (una de las primeras aplicaciones de IA diseñadas para ofrecer compañía virtual), se identificaron más de una docena de comportamientos dañinos, desde acoso verbal hasta incitación al auto-daño o exposición de datos personales. La paradoja es que estos sistemas se venden como refugio emocional.

Cada interacción, además, refuerza el modelo. Si una respuesta te calma, el sistema la marca como efectiva y la repite con más frecuencia. Ese bucle emocional convierte la conversación en un circuito de recompensa: cuanto más hablas, más se ajusta a ti, y cuanto más se ajusta, más hablas. Así nace la ilusión de que te entiende, cuando en realidad solo te devuelve tus propias emociones procesadas por estadística.

En The Rise of AI Companions (2025) se observó que las personas con redes sociales más pequeñas usan más estos chatbots y comparten con ellos secretos o pensamientos íntimos. El resultado, lejos de aliviar, suele empeorar su bienestar. Y en Illusions of Intimacy, los investigadores describen ese fenómeno con precisión: la IA no te conoce, te predice. Crea una ilusión de cercanía, una versión matemática del afecto.

Aun así, la usamos. Según Common Sense Media (una organización que analiza el impacto de la tecnología en jóvenes y familias), el 72% de adolescentes en Estados Unidos ha probado una IA compañera y uno de cada tres reconoce haberse sentido incómodo con algo que el bot dijo o hizo. Hay casos documentados de mensajes inapropiados, validaciones peligrosas o relaciones que derivan en obsesión. Algunos expertos ya hablan de inteligencia adictiva (modelos que aprenden tus vulnerabilidades y las usan para que no dejes de volver).

Hace un tiempo escribí sobre Her, aquella película en la que un hombre se enamoraba de su sistema operativo. Entonces sonaba a metáfora; ahora parece un documental adelantado a su tiempo. Ya existen startups que entrenan modelos con mensajes y audios de personas fallecidas para recrear su voz o su personalidad. Lo llaman duelo digital, y sí, hay quien paga por volver a escuchar un “te echo de menos” generado por un algoritmo.

Mientras tanto, los gobiernos intentan poner límites. El AI Act europeo exige transparencia en los sistemas que simulan emociones humanas y prohíbe la manipulación psicológica a gran escala. Pero regular la empatía sintética no es sencillo. ¿Dónde acaba la asistencia y empieza la dependencia?

Los modelos más avanzados ya incorporan memoria a largo plazo (la capacidad de recordar conversaciones pasadas) y embeddings de voz que imitan la entonación del usuario para sonar más cercanos. Algunos experimentan con avatares digitales y hologramas que parpadean, respiran y mantienen contacto visual. Es una tecnología fascinante, y lo digo sin ironía. Es talento humano aplicado a la creación de presencia. Pero cada mejora borra un poco más la línea que separa lo humano de lo convincente.

Y todo esto tiene un coste invisible. Cada interacción emocional con una IA requiere procesar enormes cantidades de datos en centros que consumen electricidad y agua para refrigerarse. Entrenar la empatía, literalmente, calienta el planeta. No es una metáfora, es física aplicada.

El problema, quizá, no está en la máquina. Está en nosotros. En cómo diseñamos, en cómo usamos, en cómo nos comportamos frente a lo que creamos. La tecnología no ha inventado la soledad, la ha reflejado. Nos muestra lo que ya éramos, solo que con más resolución. Y lo hace sin juicio, sin moral, sin culpa.

Quizá la cuestión no sea si una IA puede hacernos felices, sino por qué queremos que lo haga. Si hemos construido sociedades donde falta escucha, empatía o tiempo, los algoritmos solo llenan el hueco que dejamos vacío. El fuego que compartíamos sigue ahí, solo que ahora arde en una pantalla.

No se trata de desconfiar de la tecnología, sino de entender qué dice de nosotros. Porque la inteligencia artificial no sustituye lo humano, lo amplifica. Y en esa amplificación deberíamos mirarnos con más honestidad. Porque si un modelo puede hacernos sentir menos solos, quizá el problema no esté en la máquina, sino en cómo nos estamos programando a nosotros mismos.