Analítica web

Medición de internet: conocer el escenario

Luis Palacio
Imagen tomada de Marketingdirecto.com

Dado el peso creciente de internet y la proliferación de nuevos medios digitales, es fundamental para los periodistas manejar y distinguir las medidas, las herramientas de medición y a los medidores de los sitios webs.

LUIS PALACIO*

Desde comienzos de 2013, y por primera vez tras la llegada de internet, más de la mitad de los españoles se declara “internauta habitual”. Esto se desprende, al menos, de los datos de la 1ª ola del Estudio General de Medios (EGM), cuyas encuestas se realizaron en los meses de enero, febrero y marzo pasados, y en las que el 52,6 % de los encuestados de una muestra de la población residente en España de más de 14 años declaró que había accedido a internet el día anterior.

Al poco de conocerse los datos, algún medio especializado informaba: “Según el EGM, en el periodo analizado, internet pasó de tener una penetración del 46,7 % en abril de 2012 a una del 48,6 % registrada en marzo de 2013”.

¿En qué quedamos: es el 52,6 % o es el 48,6 % el porcentaje de los españoles que navega por internet?

Lo cierto es que en la encuesta realizada este año, cuyo trabajo de campo se realizó del 16 de enero al 26 de marzo, los encuestados que dijeron que habían accedido a internet el día anterior fueron el 52,6 %.

El 48,6 % es el promedio obtenido en las últimas tres olas del EGM, que es lo que se conoce como acumulado anual móvil, refiriéndose lo de móvil a que para obtenerlo se han promediado las 2ª y 3ª ola del estudio de 2012 y la 1ª ola de 2013 (a mediados de este año, el acumulado promediará la 3ª ola de 2012 y la 1ª y 2ª ola de 2013 y, a final de año, la 1ª, 2ª y 3ª ola del año en curso). Se entiende, pues, que el 48,6 % de la población es el promedio de españoles que accedió a internet el día anterior en los doce meses que van de abril de 2012 a marzo de 2013 y no el porcentaje de quienes accedieron ese mes. Además, hay que recalcar que se trata de quienes accedieron a la red el día anterior, ya que, si se toma como referencia el último mes, es el 61,6 % el porcentaje de encuestados que navega por internet.

¿Y qué importancia tiene esto? En primer lugar, la de que un dato es un dato y debe expresarse exactamente como es. Y teniendo en cuenta que la Asociación para la Investigación de los Medios de Comunicación (AIMC), que es la que realiza el EGM, publica una información razonablemente amplia sobre este tema cada tres meses, parece de rigor que se utilice correctamente.

Medición censal: contabilización imprecisa de usuarios

Pero, en segundo lugar, porque la irrupción de internet en nuestras vidas está cambiando muchas cosas y, en el plano laboral, a los periodistas nos está modificando el terreno en el que nos movemos. Y quien quiera jugar a partir de ahora debe conocer ese terreno. En este sentido, manejar y distinguir las medidas, las herramientas de medición y a los medidores es fundamental.

Aunque hasta ahora en este artículo hemos manejado datos del EGM, cabe decir que estos solo nos permiten conocer –y no es poco– el peso que tiene internet dentro del conjunto de los medios. Y eso se hace a través de una encuesta a una muestra de la población, cuyos resultados se extrapolan después al conjunto.

Sin embargo, es ya un tópico decir que internet es un soporte en el que se puede medir todo.

Y así se llega a la analítica web. Es decir, al análisis del tráfico que llega a un sitio web, incluyendo tanto los usuarios que entran como su comportamiento y movimientos dentro del sitio. Y para conocer esos dos elementos –usuarios y movimientos–, se desarrollan los dos tipos básicos de herramientas de análisis, según estén centradas en el usuario o en el sitio.

Medición censal
La línea divisoria entre ambos tipos de herramientas está determinada por el derecho a la privacidad de los usuarios. Las herramientas centradas en el sitio, que también se denominan herramientas censales, permiten saber cómo se mueven en el mismo los usuarios que llegan, pero sin identificarlos. El análisis con este tipo de herramientas se realiza mediante el empleo de etiquetas o tags, es decir, líneas de código informático que se sitúan en las páginas de los sitios webs y que permiten conocer los movimientos de los usuarios: momento del acceso, duración de la visita, páginas del sitio visitadas y flujos entre ellas y servicios utilizados, entre otros. Su principal inconveniente es que su medición del número de usuarios no es muy precisa, ya que nunca se dispone de información de quién está detrás de la dirección IP que realiza el acceso al sitio web o si, por ejemplo, un mismo usuario accede a un sitio con diferentes dispositivos (ordenador, móvil, tableta).

Las herramientas de análisis censal son las más habituales, en parte debido a la extensa utilización de las promovidas desde los buscadores, de carácter gratuito, como Google Analytics y Yahoo Web Analytics. Además de ellas, hay otras, de pago, más sofisticadas y desarrolladas por compañías como Adobe (Site Catalyst), AT Internet (Analyzer) y Weborama (WReport).

En el caso de España, Información y Control de Publicaciones (Introl, la compañía responsable de la medición de la difusión de medios impresos a través de la Oficina de Justificación de la Difusión –OJD–) ha comenzado a desarrollar una nueva actividad que consiste en la homologación y calificación de los sistemas de medición censal, de tal forma que las compañías que contratan estas herramientas dispongan de un argumento adicional a la hora de utilizar sus datos ante terceros, como las agencias de medios o los anunciantes. Entre los criterios utilizados por Introl para homologar las herramientas censales se encuentra, por ejemplo, la utilización o no de las listas internacionales de robots, elaboradas por asociaciones internacionales de publicidad interactiva (como la Interactive Advertising Bureau –IAB–) y de control de tráfico (como la International Federation of Audit Bureaux of Circulations –Ifabc–), que permiten filtrar los datos de tráfico obtenidos. Esos robots son servidores informáticos fraudulentos que se dedican a generar tráfico ficticio y que son empleados o contratados por sitios webs interesados en inflar sus cifras de audiencia.

Medición de usuarios
El otro gran grupo de herramientas son las centradas en los usuarios y están basadas en la información recabada de grupos de usuarios, agrupados en un panel, y que han sido seleccionados para que constituyan una muestra representativa del universo del que se pretende disponer de información. Unos universos que pueden ser el conjunto de la población o determinados grupos sociodemográficos concretos, como los jóvenes entre 18 y 34 años, los universitarios o los cabezas de familia.

En estas herramientas de análisis, los integrantes del panel permiten a la compañía de investigación instalar en sus terminales un software que detecta todos sus movimientos mientras navegan por la red: webs que visitan, duración de las visitas, comportamiento en las páginas webs, etcétera.

Como todas las herramientas estadísticas que se basan en muestras, las herramientas de analítica web centradas en los usuarios extrapolan la información a los universos de referencia, lo que lleva implícitos unos márgenes de error. Se trata siempre de datos que permiten estimar una realidad, pero que nunca la reflejan exactamente, un matiz que conviene tener siempre presente al emplearlos.

Basta considerar uno de los condicionantes que tienen estos paneles para advertir la relatividad de los resultados: el lugar de acceso. Los usuarios que integran los paneles tienen plena libertad para autorizar a la compañía de investigación a que instale un software en sus ordenadores domésticos; sin embargo, esa libertad no es la misma cuando se trata de instalarlo en el ordenador del puesto de trabajo o de puntos de acceso públicos, y en ambos casos esto lo hacen porcentajes de la población cercanos al 20 %. Es fácil deducir que con un condicionante de estas características en las mediciones más generales aparece un sesgo importante en los resultados.

Medición con paneles: carencia de representatividad
Del mismo modo, cuando se trata de analizar publicaciones dirigidas a públicos muy específicos, la medición a través de paneles muestra carencias. “En nuestro caso –explica Juanjo Moreno, director de Yorokobu–, que nos dirigimos a un público joven, muy activo en internet y en las redes sociales, hemos comprobado que las mediciones a través de paneles demográficos generalistas suelen darnos unos datos de tráfico inferiores a los que nosotros tenemos en realidad y que obtenemos a través de la medición con etiquetas de nuestra web”.

En España, las dos compañías que han ofrecido tradicionalmente análisis de los usuarios de los sitios webs han sido comScore y Nielsen. Esta última, sin embargo, comunicaba el pasado mes de enero que se retiraba de la medición de audiencias digitales en España. La razón de esta decisión hay que buscarla en la mencionada elección de un medidor de referencia en nuestro país de las audiencias de internet, a cuyo concurso se presentó Nielsen Online, además de Kantar y de comScore Ibérica, y que ganó este último.

Medición híbrida
A la vista de las carencias que presentaban ambos sistemas de medición (contabilización del número de usuarios, en el primer caso, y de representatividad de los paneles, en el segundo), la industria de la investigación dio un paso más hacia lo que se denominó medición híbrida y que, en términos generales, consiste en la utilización combinada de las herramientas de medición censal o centradas en los sitios y las herramientas centradas en los usuarios. En los sistemas híbridos se conoce el comportamiento de los miembros del panel en sitios webs marcados con etiquetas y esa información sirve para generar un dato único, híbrido de ambos sistemas.

En el caso de España, la disponibilidad de esa medición híbrida en un tiempo razonable fue uno de los criterios que tuvo en cuenta la Mesa de Contratación Digital de AIMC e IAB para elegir el medidor de referencia.

Más datos disponibles para periodistas
En los tiempos actuales, los periodistas deben conocer cómo se realiza y qué implica la medición online por diferentes motivos, entre los que destacan dos: el peso creciente de internet y el desarrollo de nuevos medios.

La digitalización de la sociedad es ya una realidad y el peso de internet como plataforma para los medios de comunicación aumenta sin cesar. Si tradicionalmente el impacto de los medios –medido en ejemplares vendidos, lectores de una publicación, oyentes de una cadena de radio o telespectadores de un programa– ha sido uno de los criterios para medir su relevancia, ¿no será necesario conocer con cierta exactitud cuál es el impacto de un sitio web a la hora de valorar la información que publica? Y para eso, ¿qué criterio es el adecuado: el número de usuarios únicos, las páginas vistas, el tiempo dedicado a visitarlo, el número de usuarios que paga por conseguir la información o el eco que esta obtiene en las redes sociales? En realidad, no existe un criterio único y es en este contexto en el que el concepto “analítica web” cobra todo su significado, ya que, al igual que en otras analíticas, de lo que se trata es de valorar todos los datos disponibles en función de las necesidades y de los objetivos del medio o del sitio web.

Asimismo, no puede olvidarse la creciente importancia que se otorga al perfil digital de los periodistas en las redes sociales. Por ello, junto con las mencionadas métricas, aparecen otros datos considerables como el número de seguidores, los “me gusta”, los tuits y los retuits.

Así pues, además de los datos disponibles del tráfico de los sitios webs y de los perfiles de los profesionales, también es preciso manejar información más general que permite contextualizar esos datos. Al principio del artículo, se mencionaba la penetración de internet en España y los porcentajes de usuarios del día anterior o usuarios habituales y los del mes anterior, que incluye usuarios esporádicos. Aunque ese porcentaje nos acerca al número de españoles que navega por internet, no aclara qué hacen en la red. Y los usos de internet son tan diversos que, en cuanto se analiza una actividad concreta, las cifras dejan de ser apabullantes.

Tomemos el consumo de información. Si más de la mitad de la población española mayor de 14 años es usuario de internet habitual (el 52,6 % citado), solo un 20,6 %, según el EGM, lee habitualmente información de actualidad. Expresado de otro modo: de cada diez españoles, cinco navegan a diario por internet, pero solo dos leen información de actualidad.

Por otro lado, y como consecuencia de la crisis que atraviesa la industria de los medios de información, el desarrollo de nuevos medios en internet se presenta como una alternativa que está –al menos, relativamente– al alcance de los profesionales. Parece evidente que, para desarrollar esos proyectos, hay que conocer aspectos como los siguientes: cuál es el grado de desarrollo de internet en nuestro país, cuántos usuarios potenciales hay para un nuevo medio y, una vez lanzado este, cómo es la utilización que se hace del medio, cuál es el grado de aceptación y cómo se puede utilizar esa información para rentabilizar el proyecto y hacerlo sostenible.

Si con la digitalización y la extensión de internet ha aumentado extraordinariamente la información y los datos disponibles (en gran medida, gratuitos) sobre un gran número de aspectos de la realidad, eso también sucede en el terreno de los medios de comunicación. Antes de poner en marcha cualquier proyecto empresarial –y un medio informativo lo es–, es necesario realizar un estudio de mercado o, cuando menos, una aproximación al mercado potencial del medio. Hoy en día, entidades como el Instituto Nacional de Estadística (INE), la entidad del Ministerio de Industria Red.es, el Centro de Investigaciones Sociológicas (CIS) y la Comisión del Mercado de las Telecomunicaciones (CMT), o las ya mencionadas AIMC, OJD Interactiva y comScore distribuyen periódicamente información cuantitativa que posibilita esa aproximación.

Una vez tomada la decisión y lanzado el medio, sus promotores disponen, para empezar, de la información que les proporciona su servidor sobre el tráfico recibido y la que se obtiene de herramientas gratuitas como Google Analytics. En ambos casos, se trata de información que es preciso analizar y que será de enorme utilidad no solo para conocer el impacto del medio, sino también del comportamiento de los usuarios: informaciones de mayor atractivo, tiempo dedicado a las visitas y a cada información, etcétera. En el caso de Yorokobu, según su director, “utilizamos los datos de tráfico para fijar nuestra estrategia editorial y muy especialmente para constatar que mantenemos los niveles de calidad y la sintonía con nuestros lectores”.

La decisión de emplear otro tipo de herramientas más complejas de analítica web, estas ya de pago, suele estar relacionada con la proyección del sitio web y de su potencial comercial. Según Jaime Agulló, director general de comScore Ibérica, “entre las webs que suelen precisar de una analítica web más sofisticada se encuentran aquellas en las que se generan ventas y transacciones y en las que resulta crítica la optimización de la navegación y, junto con ellas, las webs con una cierta dimensión y que se encuentran dentro del grupo de las que son comercialmente activas”.

Esas webs suelen acudir a las herramientas de pago y a las mediciones realizadas por compañías especializadas porque suelen ser los datos aceptados por los intermediarios publicitarios, como las agencias de medios.

Editor de Digimedios y el director del "Informe Anual de la Profesión Periodística", de la Asociación de la Prensa de Madrid

Deja un comentario