La irrupción de la inteligencia artificial generativa, el auge del zero click en los buscadores y la feroz batalla por la atención han cambiado el tablero de juego para los medios de comunicación digitales en España. En este contexto, saber con precisión quién te lee, cómo llega y cuánto tiempo se queda ha dejado de ser un lujo para convertirse en una cuestión de supervivencia editorial y de negocio.
De todo ello hablamos con Aida Méndez, directora de Operaciones y Producto en GfK Media, responsable de GfK DAM, la solución de referencia para la medición de la audiencia digital en España. Méndez explica cómo funciona este “panel país” que se ha convertido en la moneda de cambio del mercado publicitario, analiza el impacto real de la inteligencia artificial en el consumo de noticias y defiende el papel central de los medios —también regionales y locales— en momentos de incertidumbre como el gran apagón del pasado abril.
Para situar al lector: ¿qué es exactamente GfK DAM y qué mide en el ecosistema digital español?
El nombre completo es GfK DAM, donde DAM son las siglas en inglés de Digital Audience Measurement, es decir, medición de audiencia digital. Lo que hacemos, dicho en sencillo, es medir todo lo que se navega en internet en España: webs, aplicaciones, servicios digitales…
Cada medio de comunicación tiene sus herramientas internas, pero cada una mide a su manera. Eso hace que los datos no siempre sean comparables. GfK DAM existe para que todos —medios, anunciantes y agencias— dispongamos de una medición uniforme, con la misma metodología y las mismas reglas para todos, de forma que los datos sean realmente comparables.
Para los medios de comunicación, esto es clave a la hora de tomar decisiones editoriales y de producto. Y para anunciantes y agencias de publicidad es lo que les permite decidir dónde ponen sus campañas, dónde van a encontrar a su público objetivo. No se trata solo de contar personas, sino de saber qué personas hay detrás y cómo se comportan en internet.
Un panel de hasta 25.000 personas que funciona como una “maqueta” de la población
¿Cómo se consigue medir toda la navegación online del país? ¿Cuál es la metodología de GfK DAM?
Igual que ocurre con la televisión, la radio o la prensa, lo hacemos a través de un panel, una muestra de la población que está diseñada para ser representativa del conjunto del país.
A mí me gusta explicarlo como una especie de “maqueta en miniatura” de la población española. Si en España hay aproximadamente un 49-51% de hombres y mujeres, en nuestra muestra también. Lo mismo con los rangos de edad, con las comunidades autónomas en las que vive la gente, etc.
Trabajamos con entre 20.000 y 25.000 personas, pero con las mismas proporciones de sexo, edad y región que el total de la población española. Gracias a eso, cuando analizamos cómo navega ese panel, podemos extrapolar esos comportamientos al conjunto de internautas.
Todas estas personas tienen instalado un software en sus dispositivos —móvil, ordenador, tableta—, siempre con consentimiento expreso. Eso nos permite saber todo lo que hacen en internet: qué sitios visitan, qué apps usan, cuánto tiempo permanecen conectados.
Y hay un punto diferencial: medimos personas, no pantallas. Si una misma persona entra por la mañana en un medio desde su móvil y por la noche desde su ordenador, sabemos que es el mismo individuo. Muchas herramientas internas de analítica web no pueden identificar bien ese cruce entre dispositivos; para nosotros es una de las fortalezas del sistema.
“Nuestro dato es la ‘currency’ del mercado: la moneda de cambio de la publicidad digital”
Existen muchas herramientas de medición. ¿Por qué GfK DAM se considera la referencia del mercado?
Porque no es solo una herramienta tecnológica; es la medición consensuada por toda la industria digital. En España hay asociaciones que reúnen a medios, anunciantes, agencias e investigadores. A través de ellas se decide qué medidor va a ser la referencia para todo el mercado, precisamente para que todos hablemos de lo mismo.
En inglés se habla del dato “currency”, el dato moneda, porque es literalmente la moneda de cambio del mercado publicitario digital. Es el estándar que comparten los medios y que utilizan anunciantes y agencias para comprar y vender campañas.
Si cada uno se quedara solo con su dato interno —con Google Analytics en un sitio, con otra herramienta en otro—, no podríamos comparar. Distintas maneras de medir una misma realidad dan resultados diferentes. Eso no quiere decir que una esté bien y la otra mal, quiere decir que no son comparables.
La clave es que, cuando compares la audiencia de dos medios, sepas que se han medido con las mismas reglas y la misma metodología. Eso es lo que aporta GfK DAM.
La explosión de la inteligencia artificial: “Ha tardado menos de dos años y medio en llegar al 40-50% de la población”
Habéis realizado un estudio específico sobre inteligencia artificial y consumo de información. ¿Qué preguntas queríais responder?
Teníamos dos preguntas principales:
- Hasta qué punto se han adoptado las herramientas de inteligencia artificial por parte de los internautas españoles.
- Cómo está impactando esa adopción en la forma en que consumimos noticias y contenidos informativos.
Una parte muy importante del acceso a internet se produce porque nos hacemos una pregunta: qué tiempo va a hacer mañana, cómo se cocina algo, qué móvil me compro… Esa pregunta, hasta ahora, se planteaba al buscador, que devolvía un listado de enlaces donde había muchos medios de comunicación.
La duda era: ¿se está desplazando este comportamiento hacia las herramientas de IA? Y, si es así, ¿acaba ese proceso, como antes, en una visita a un medio, o se queda dentro de la IA?
¿Cuál es la tasa de adopción actual de las herramientas de IA entre los internautas españoles?
En octubre, el 47% de los internautas en España utilizó al menos una herramienta de IA durante el mes. Me refiero principalmente a ChatGPT, que es la que tiene mayor penetración, pero también a Gemini, Perplexity, Anthropic y otras soluciones similares, ya sea a través de la app o de la web.
Es importante matizar que hablamos de herramientas de IA “nativas”. Es decir, de usuarios que van directamente a ese servicio para hacer la consulta. No estamos contabilizando la IA incrustada en buscadores como Google. Ahí nosotros vemos tráfico a Google, pero no podemos distinguir en qué casos el usuario ha consultado una respuesta generada por IA y en cuáles no.
Si sumáramos esa capa, la penetración real de la IA sería mucho mayor, porque más del 90% de los internautas usan Google en algún momento del mes. Pero precisamente por eso nos interesaba destacar el dato de herramientas nativas: es un uso mucho más voluntario y explícito, que muestra hasta qué punto la tecnología se ha integrado en los hábitos cotidianos.
¿Cómo encaja ese 47% en los modelos clásicos de adopción de tecnologías?
Hay un modelo muy conocido, el de difusión de innovaciones, que distingue entre los primeros frikis —si se me permite la expresión— que prueban cualquier novedad tecnológica y el resto de la población.
Los estudiosos sitúan el punto de inflexión en torno al 16-20% de adopción. Por debajo de esa cifra, la tecnología puede quedarse en un nicho de entusiastas y no extenderse nunca al conjunto de la sociedad. Pasó, por ejemplo, con el LaserDisc, con los vídeos Beta o, de momento, con las gafas de realidad aumentada, que no han terminado de dar el salto a la adopción masiva.
Cuando una innovación supera ese primer 16-20%, ya es razonable pensar que puede llegar al mercado de masas. Y cuando se mueve en el entorno del 40-50%, como es nuestro caso, estamos ya en la llamada mayoría temprana: la tecnología ha entrado en la vida cotidiana de la gente, y a partir de ahí va conquistando también a los más rezagados.
Para comparar: los smartphones tardaron unos cinco años en llegar a ese 4%; las redes sociales, alrededor de ocho años; internet como tal, unos quince años.
La inteligencia artificial generativa ha tardado menos de dos años y medio en alcanzar ese nivel. Es decir, ha ido el doble de rápido que los móviles cuando pasamos del “teléfono tonto” al “teléfono listo”.
Por eso decimos que la IA ya no es el futuro, es el presente. Otra cosa es qué usos nuevos aparecerán y qué capacidades se desarrollarán, pero el uso como tal ya está integrado en el día a día de la mayoría de los internautas.
“Solo una de cada 432 sesiones en una IA acaba en un medio digital”
¿Y en qué medida esas consultas a la IA terminan llegando a los medios?
Aquí viene quizá el dato más contundente del estudio: muy poco.
Hemos medido cuántas veces una sesión en una herramienta de IA termina derivando en una visita a un medio de comunicación digital. El resultado es que solo una de cada 432 sesiones acaba en un clic hacia un medio. Es decir, un 0,25% aproximadamente.
La inmensa mayoría de las interacciones con herramientas de inteligencia artificial no generan tráfico para los medios de comunicación. El usuario formula su pregunta, obtiene la respuesta dentro de la herramienta y su necesidad de información queda satisfecha ahí.
Más allá de la IA, el zero click en buscadores se ha convertido en una preocupación central. ¿Qué habéis encontrado?
El zero click se produce cuando haces una búsqueda, pero no acabas visitando ninguna página web porque el propio buscador te muestra la respuesta.
Esto empezó hace tiempo con lo que se llaman widgets en la página de resultados: si preguntas el cambio euro/dólar, lo normal es que Google te ofrezca directamente el tipo de cambio sin que tengas que entrar en una web de información económica.
Desde este año, además, tenemos en Google los AI Overviews, resúmenes generados por inteligencia artificial que responden a tu pregunta a partir de contenidos de distintas páginas. Suelen incluir enlaces, pero si tu duda es rápida y directa y la respuesta ya aparece en el primer scroll, no necesitas hacer clic en ningún sitio.
Eso es exactamente zero click: la consulta nace y muere dentro del buscador.
Lo que hemos medido es cuántas búsquedas terminan así. Entre principios de 2025, antes de la implantación generalizada del AI Overview, y octubre —última medición disponible—, este fenómeno ha crecido unos diez puntos porcentuales.
Hemos pasado de entornos del 60-62% a cifras del 70-72%. O dicho de otra manera: siete de cada diez búsquedas ya no generan ninguna visita a páginas externas. Es una cifra muy elevada y, naturalmente, tiene un impacto directo en el tráfico que reciben muchos medios.
¿Qué tipo de contenido está sufriendo más con el zero click y con la IA?
Sobre todo lo que llamamos contenido “evergreen” o perenne, es decir, contenido que no caduca y que responde a preguntas muy concretas: recetas de cocina, manualidades, guías paso a paso, pequeños arreglos en casa, efemérides, consultas genéricas de salud, etc.
Son piezas muy enfocadas a resolver una duda puntual del usuario. Si esa respuesta se la da directamente el buscador o la IA, cada vez es menos necesario que haga clic en la página original.
En nuestras series históricas vemos caídas muy fuertes en algunos portales especialmente centrados en este tipo de contenidos: webs de “cómo se hace”, páginas de consultas sanitarias genéricas, manuales prácticos, etc., con descensos encadenados en los últimos dos años.
¿Quiénes están aguantando mejor este nuevo escenario?
Vemos dos tipos de fortalezas: Los medios muy pegados a la actualidad y, en especial, a la información local y regional. Que aunque a veces se ha dado por hecho que el medio regional era algo “del pasado”, los datos nos dicen lo contrario. Los usuarios valoran mucho la información de cercanía: saber qué está pasando en su municipio, en su barrio, contada por periodistas que conocen el territorio. Ese tipo de información es difícil de reemplazar por una respuesta genérica de una IA o un buscador. Y por otro lado los medios con comunidades sólidas de suscriptores o usuarios registrados. Es verdad que, en términos absolutos, los usuarios registrados suelen ser una parte relativamente pequeña de la audiencia total, pero son muy intensivos y fieles en su consumo: se conectan más a menudo, leen más noticias por sesión, pasan más tiempo en el sitio.
Algunas cabeceras han hecho público que hasta la mitad de sus ingresos procede ya de estos “pequeños” socios que pagan una cuota anual relativamente moderada. Es una estrategia más lenta, más de pico y pala, pero a cambio te protege frente a los vaivenes de las plataformas, porque ahí tienes una relación directa con tu lector, sin depender tanto de Google, Meta u otros intermediarios.
Muchos medios han pasado de depender de Facebook a depender de Google y ahora miran a otras plataformas. ¿Qué enseñanzas deja esa trayectoria?
Yo misma viví la época en la que Facebook era la principal fuente de tráfico para algunos medios digitales. Durante unos años fue casi el sueño: tráfico a raudales solo por publicar y optimizar para la red social. Hasta que cambiaron las reglas del juego y ese tráfico se esfumó.
Un antiguo jefe mío lo explicaba con una metáfora muy buena: puedes tener estrategia “centro comercial” o estrategia “IKEA”. En la estrategia centro comercial, tú pones tu tienda en un lugar donde la gente ya va. Tienes flujo de público, pero las reglas las pone el centro comercial: te puede cambiar horarios, subir el alquiler, mover de planta… En la estrategia IKEA, plantas tu tienda en mitad de un solar. Tú marcas las reglas, pero tienes que conseguir que la gente vaya hasta allí. Es más lento, más trabajoso, pero cuando lo logras, no dependes de terceros.
Trasladado a los medios: puedes optar por una estrategia de dependencia de grandes distribuidores de audiencia —buscadores, redes sociales, plataformas— o apostar por construir una relación directa con tu lector, a base de constancia y diferenciación editorial.
Las dos vías pueden funcionar. Hay medios que dependen mucho de plataformas y capturan muchísimo volumen de audiencia, y otros que han apostado por fortalecer la relación directa con el lector, las suscripciones, las comunidades. Desde la perspectiva de la medición, lo que vemos es que cuanto más directa es la relación, más resiliente es el medio frente a cambios de algoritmo o de plataforma.
Tres horas y media de internet al día… y solo ocho minutos para los medios
¿Qué nos dicen los datos sobre el reparto real del tiempo que pasamos en internet?
En nuestras mediciones, los internautas españoles dedican en torno a 105 minutos al día, unas tres horas y media largas, a navegar por internet.
De ese tiempo, la gran mayoría se va a redes sociales y a servicios digitales —WhatsApp, mensajería, correo electrónico como Gmail, otras plataformas de uso cotidiano—.
¿Y qué parte corresponde a lo que llamamos publishers, es decir, medios de comunicación y editores de contenido informativo? Alrededor de ocho minutos diarios por usuario.
Eso significa que, de todo el tiempo que pasamos conectados, solo una fracción muy pequeña se reparte entre todos los medios de comunicación digitales del país.
Y además los medios no compiten solo entre ellos. Compiten con el vídeo viral de TikTok, la serie de moda en Netflix, los vídeos familiares que te llegan por WhatsApp, o el meme que circula en redes…
Cuando un medio analiza sus datos de audiencia, es importante que sea consciente de que no compite solo en el mercado de la información, sino en el mercado de la atención.
A pesar de ese panorama, en vuestro estudio termináis con una nota de optimismo. ¿De dónde viene?
Viene de casos muy concretos en los que vemos claramente que el periodismo sigue siendo un referente para la ciudadanía. Un ejemplo muy reciente fue el gran apagón del 29 de abril.
Nosotros monitorizamos diariamente el tráfico de los principales periódicos digitales en España. Si miras la curva, ves el patrón típico: el 23 de abril, el 24, el 25… sube de día, baja de noche. Y de repente llega el día del apagón y aparece un pico enorme de tráfico directo a las grandes cabeceras.
Incluso cuando mucha gente empezaba a quedarse sin internet por las incidencias en antenas y estaciones, quienes seguían conectados hicieron algo muy sencillo: escribir en su móvil o en su ordenador la dirección de sus medios de confianza. No fue un enlace en redes sociales, ni un vídeo en TikTok, ni un mensaje reenviado.
En un momento de preocupación, de incertidumbre, la gente acudió directamente a las marcas periodísticas que conoce y en las que confía. Y lo mismo ocurrió con la radio, que aquel día fue también crucial.
Para quienes somos fans del periodismo, esto es muy revelador: el entorno digital es complejo, pero los medios siguen siendo relevantes socialmente. La cuestión es encontrar la manera de que esa relevancia se traduzca en modelos viables y sostenibles.
“En el gran apagón, la gente fue directamente a sus medios de confianza”
Además de la medición general de audiencia digital, habéis puesto en marcha una capa específica para contenidos audiovisuales. ¿Qué aporta?
Es cierto, además de medir el tráfico a webs y apps, hemos lanzado una medición específica de contenidos en vídeo y audio en streaming.
Antes ya sabíamos, por ejemplo, cuánta gente entraba en la página de un grupo audiovisual para ver un programa concreto. La novedad es que ahora medimos con detalle cuántas reproducciones tiene cada contenido, cuántas reproducciones por usuario, qué porcentaje del contenido se ve o se escucha, si el usuario hace pausas y retoma más tarde, la duración real de las sesiones de vídeo o audio.
Y, como siempre, con la posibilidad de cruzar esos datos con información sociodemográfica: edad, género, zona de residencia, tipo de dispositivo, etc.
Trabajamos también con radios digitales, por ejemplo. No solo vemos que la gente entra en su web, sino cómo consumen sus audios, cuántos minutos escuchan, si son consumos largos o fragmentados.
¿Incluye esta medición plataformas como YouTube o solo el vídeo alojado en las propias webs?
Incluimos ambas dimensiones. Medimos: los contenidos de vídeo alojados en las webs de los medios, ya sea con reproductores propios o con soluciones como Vimeo incrustada en la página; y los contenidos que esos mismos medios publican en plataformas como YouTube.
Esto nos permite analizar lo que llamamos audiencia incremental: ver si la audiencia que el medio tiene en YouTube es gente que ya consumía su contenido en la web, o si está sirviendo para captar usuarios nuevos, que quizá no habrían llegado nunca a su sitio propio y que descubren la cabecera a través de la plataforma de vídeo.
Para los medios, es información clave para tomar decisiones de estrategia editorial y de distribución. Y para agencias y anunciantes, es fundamental a la hora de planificar campañas de vídeo y audio digital.
En términos publicitarios, ¿qué métricas están mirando más las marcas en el entorno audiovisual?
Los medios suelen estar muy pendientes del reach, del alcance: cuántas personas distintas han llegado a tu contenido en un mes. Es el número grande, la métrica de vanidad que todo el mundo mira para ver quién ocupa el primer puesto.
Pero muchas agencias y anunciantes están muy centrados en otra métrica: la duración total del consumo, los minutos que acumulan los usuarios viendo o escuchando tus contenidos.
Cuanto más tiempo pasan ahí, más probabilidades hay de que vean un anuncio. Así que, una vez que la marca ha identificado en qué sitios está su público objetivo —por ejemplo, gente joven—, busca entornos donde ese público permanezca más tiempo, donde haya consumos largos y recurrentes.
En ese sentido, esta nueva capa de medición de vídeo y audio encaja muy bien con lo que el mercado publicitario realmente necesita: no solo saber cuánta gente llega, sino cuánto tiempo se queda y cómo consume.
“Soy optimista irredenta: los medios seguirán siendo necesarios, pero tienen que reinventarse”
Con la mirada puesta en los próximos años, ¿qué horizonte ve para los medios digitales en España?
El panorama es exigente, eso es evidente, la inteligencia artificial ha irrumpido a una velocidad inédita, el fenómeno zero click reduce parte del tráfico que antes fluía hacia los medios, la competencia por el tiempo del usuario es feroz, y los modelos de negocio están en plena revisión.
Pero, aun así, yo me considero una optimista irredenta. Llevo toda mi carrera profesional dedicada a los medios de comunicación digitales y estoy convencida de que tienen futuro.
Los datos nos demuestran que, en los momentos importantes, la ciudadanía sigue recurriendo a los medios y al periodismo profesional para informarse. Lo vimos en el gran apagón y lo vemos cada vez que hay un episodio de incertidumbre o de especial relevancia social.
El reto está en encontrar modelos sostenibles, ya sea a través de comunidades de socios, estrategias de suscripción, publicidad de calidad, desarrollo de producto audiovisual o servicios de valor añadido para los lectores. El contexto ha cambiado, las reglas del juego también, pero la necesidad de buenos medios de comunicación no ha desaparecido.
Diría que, si acaso, es más urgente que nunca.