22/03/2018

Puede fomentar los filtros burbuja

El poder de la personalización

Escrito por Adrienne Lafrance

Por su interés, se reproduce a continuación un artículo de Adrienne Lafrance, directora de TheAtlantic.com, publicado inicialmente en Nieman Reports, de la Fundación Nieman para el Periodismo de la Universidad de Harvard, el pasado 18 de octubre. Lafrance asegura que “la personalización de las noticias podría ayudar a los editores a atraer y conservar audiencia, pero, al mismo tiempo, la polarización política sería aún peor”.

ADRIENNE LAFRANCE*

Fue necesario un ataque terrorista para que Google entrara en el negocio de las noticias. El 11 de septiembre de 2001, después de que unos secuestradores estrellaran dos aviones comerciales contra el World Trade Center, así como un tercer avión contra el Pentágono y otro más en un campo de Shanksville (Pensilvania), los usuarios de internet acudieron a por información a este buscador. Una y otra vez, tecleaban términos como “Torres Gemelas de Nueva York”, pero no encontraron nada acerca de lo que había ocurrido esa mañana. Los rastreadores web de Google no habían indexado “Torres Gemelas” desde el mes anterior, lo que significaba que todos los resultados que daba, en ese contexto, eran dolorosamente irrelevantes.

Google enseguida creó una página especial para “Noticias e información sobre los ataques terroristas en EE. UU.” con enlaces a las webs de cerca de una docena de periódicos y cadenas de radio y televisión, así como enlaces a recaudaciones de fondos, medios de ayuda y números de aerolíneas y hospitales. Un enlace a esta improvisada página de noticias permaneció durante semanas bajo la barra de búsqueda de la minimalista página de inicio de Google. En un año, el buscador había incorporado un filtro de noticias a su algoritmo para que los titulares pertinentes aparecieran encima de la lista de resultados de una palabra relevante.

Empezaba una nueva era de productos personalizados de noticias, realmente como reacción a noticias globales horrorosas.

Hoy, un rastreo de noticias en Google funciona a través del mismo sistema de filtración algorítmica que cualquier otra búsqueda: el historial de una persona, su ubicación geográfica y cualquier otra información demográfica afecta a lo que te muestra Google. Sin embargo, es un misterio en qué difieren exactamente tus resultados de búsqueda de los de cualquier otra persona. Ni siquiera los ingenieros informáticos que desarrollaron el algoritmo pudieron revertir el proceso con precisión, dado que numerosos caminos pueden llevar al mismo resultado y que los factores de ranking –que deciden qué resultado se muestran primero– cambian constantemente, como también lo hacen los propios algoritmos.

Ahora, tenemos las noticias en tiempo real, bajo demanda, a medida de nuestros intereses, a través de múltiples plataformas, sin saber cuánto es realmente personalizado. Fueron compañías tecnológicas como Google y Facebook, no los medios de comunicación tradicionales, las que lo hicieron posible. Pero los medios apuestan cada vez más por que el contenido personalizado puede ayudarles a atraer audiencia a sus webs y mantenerla.

La personalización va más allá de cómo y dónde los medios se encuentran con sus lectores. De hecho, los usuarios de teléfonos inteligentes ya se pueden suscribir para recibir notificaciones sobre áreas específicas que les interesan. En Facebook, los usuarios pueden decir –hasta cierto punto– qué historias publicadas por los medios les gustaría que aparecieran en sus muros de noticias. Al mismo tiempo, dispositivos y plataformas que usan aprendizaje automático para llegar a conocer a sus usuarios jugarán un creciente papel en darle forma a productos que ofrezcan noticias muy personalizadas. Mientras tanto, dispositivos inteligentes que se activan por la voz, como Google Home y Amazon Echo, presagian una redefinición de la relación entre las noticias y quienes las consumen.

De la misma manera que la personalización de las noticias puede ayudar a la gente a manejar la sobreinformación creando dietas únicas de noticias para cada individuo, también puede ser una amenaza al provocar filtros burbuja y, a su vez, sesgos. Esto “crea una cierta cámara de resonancia”, dice Judith Donath, autora de The Social Machine: Designs for Living Online [La máquina social: diseños para vivir ‘online’] e investigadora asociada en el Centro Berkman para Internet y la Sociedad de la Universidad de Harvard. “Consumes noticias que están diseñadas para que te sean sabrosas. Esto se alimenta del apetito de la gente por noticias que sean entretenidas... [y] del deseo de tener noticias que apoyan tus creencias, todo lo contrario de mostrarte qué ocurre en el mundo y ayudarte a pronosticar mejor el futuro”.

Si los usuarios pueden personalizar sus noticias, el discurso cívico puede resentirse

Mientras los sistemas de consulta de datos se sofistican, los softwares de reconocimiento por voz avanzan y las compañías tecnológicas aprovechan la personalización para lucrarse, este fenómeno será cada vez más intenso. Esto es potencialmente alarmante dado el crecimiento de webs –las que están enfocadas a la información y otras– que habitan en los extremos políticos, y que en Facebook pueden ser fácilmente confundidas como fuentes válidas de noticias. Cuando los usuarios pueden personalizar sus noticias, y hacerlo a partir de estos extremos políticos y sociales, el discurso cívico puede resentirse. “Lo que importa es cómo la gente usa las noticias para debatir”, explica Donath. “Puedes tener amigos y compañeros y podéis leer lo mismo. Podéis decir diferentes cosas acerca de ello. Luego tienes un debate con esas personas. Si ni siquiera estáis viendo la misma noticia, te quedas con un grupo más pequeño de gente con el que compartes esa base común. Estás perdiendo así la base común de las
noticias”.

Los algoritmos que filtran la información, ya sean de las grandes tecnológicas o de los medios de comunicación, son la base de los intentos de personalización. Aunque los periodistas y las tecnológicas enfocan esta área de maneras muy diferentes. Los medios comparten información que es veraz y, con suerte, interesante. Las compañías tecnológicas como Google y Facebook permiten compartir información que es interesante y, con suerte, veraz. Las tecnológicas emergentes solo agravarán los problemas que ya existen con la información basura que aparece a través de algoritmos.

Aún así, los algoritmos tienen un espacio en el periodismo responsable. “Un algoritmo es, en realidad, una moderna herramienta editorial”, dice Tamar Charney, jefa de redacción de NPR One, la aplicación para móviles de la National Public Radio. Se trata de un contenedor artesanal de contenido audio, tanto de programas locales como nacionales, además de podcasts de otros medios distintos a NPR, el cual emplea un algoritmo basado en los flujos más populares de los usuarios, con contenido que es muy probable que les interese. Pero Charney afirma que la mano humana aún tiene mucha implicación: “El enfoque editorial de NPR One fue tomar lo mejor de lo que hacen los humanos y lo mejor de los algoritmos y juntarlos”.

En un post del blog Inside NPR (Dentro de NPR, en su traducción al español) acerca de los principios éticos que rigen la personalización en NPR One –escrito por Charney; Thomas Hjelm, director digital, y Michael Oreskes[1], vicepresidente sénior de noticias y director editorial–, el llamado “ingrediente secreto” detrás de la aplicación es “un algoritmo editorialmente responsable”. Los procesos rastrean el comportamiento del oyente para que, con el tiempo, la aplicación pueda ofrecer contenido que satisfaga las preferencias de cada uno. Charney declina explicar qué tipo de datos concretos recoge NPR One –“somos un propietario pequeño”, dice–, si bien ofrece algunos ejemplos de cómo el algoritmo personaliza el contenido de NPR.

Por ejemplo, NPR One sabe cuándo paras de escuchar, lo que en el futuro puede ayudar a los productores a decidir cómo mantener el interés de los oyentes. También puede decir qué oyentes escucharon una historia a la que luego se añadió una rectificación y enviar esa rectificación al primer puesto del time line de esos oyentes. En por lo menos un caso, cuando la rectificación fue importante, el algoritmo de NPR One determinó quién había escuchado el segmento original. Después, NPR envió la rectificación por correo electrónico a esa lista de usuarios.

NPR puede aplicar ese mismo principio a historias que tienen varias partes. Si un oyente se pierde la primera o segunda parte de la historia, la aplicación se asegurará de ofrecerle la que le falta, algo que suelen perderse con frecuencia aquellos que escuchan NPR en el aparato de radio. “Nadie piensa para qué son los algoritmos de personalización”, dice Charney, “pero de esta manera podemos contrarrestar tanto los filtros burbuja como las narrativas falsas”.

Las noticias importantes –tanto locales como nacionales– llegan a todos los usuarios, sin opción de personalización; la aplicación siempre ofrecerá la historia que manda ese día y otras importantes seleccionadas por los editores. Así que, mientras que NPR One permite a los oyentes elegir las historias “no esenciales” que más se ajustan a los intereses particulares de cada uno –como, por ejemplo, críticas musicales o noticias de deportes o entrevistas con artistas– y decide según el nivel de escuchas que hacen sobre determinados temas, aumentando o disminuyendo las actualizaciones, los editores humanos deciden en última instancia qué es lo que necesitas escuchar.

“Puede que no te interese Siria. Te contaremos si ha ocurrido algo importante y necesitas por tanto saber sobre ello, pero evitaremos enviarte la actualización de las noticias”, explica Charney. “La habilidad para deslizarse sobre ciertas noticias y bucear en otras, ese puede ser el poder de la personalización”.

El deslizamiento y buceo que Charney describe suena casi igual a cómo Apple y Google abordan sus plataformas de distribución de contenido. Con Apple News, los usuarios pueden decir qué medios y temas les interesa más ver, con Siri haciendo sugerencias en cuanto el algoritmo va conociendo tus preferencias. Siri ahora tiene ayuda de Safari. El asistente personal puede detectar las historias del navegador y sugerir nuevos temas en función de lo que alguien ha estado buscando. Por ejemplo, si alguien ha estado buscando en Safari información sobre viajes a Reikiavik, luego encontrará en Apple News noticias relacionadas con Islandia. Pero el “Para mí” de Apple News no es personalizable al 100%, ya que muestra las historias más importantes del día o las que son tendencia entre el resto de los usuarios, así como las seleccionadas solo para ti.

De forma parecida, con la última actualización de Google News[2], los lectores pueden explorar titulares ya establecidos, personalizar la barra lateral con sus intereses principales y ubicación y, por supuesto, de búsqueda. El último rediseño de Google News es más noticioso que nunca y añade muchas de las opciones de personalización que Google introdujo por primera vez en 2010. También existe un espacio en el que puedes programar tus propios intereses en el algoritmo.

Google mantiene que esto no es un intento de suplantar a los medios de comunicación, tampoco se basa en ellos. El diseño es más bien la materialización del ethos [comportamiento] original de Google. El responsable de producto de Google News, Anand Paka, dice: “Debido a la avalancha de información, los usuarios quieren medios para controlar ese torrente. En otras palabras, ¿por qué tendría que leer las noticias que no me interesan?”.

Esta es una cuestión con la que siguen lidiando los medios de comunicación. Si sirven de termómetro las reacciones a los esfuerzos de The New York Times por adaptar el consumo de noticias a cada suscriptor, algunos prefieren todas las noticias que merecen ser impresas, y no les va la idea de las noticias personalizadas.

El Times ha introducido recientemente, o planea hacerlo a final de año, un número de características personalizables en su página de inicio que tienen que ver con varios newsletters y una serie de productos editoriales –como California Today, el Morning Briefing y The Daily Podcasts– que dependen de si una persona se ha dado de alta en esos servicios, así como de que los lectores hayan priorizado ciertos temas o columnistas. Pronto, los grandes titulares puede que sigan dominando la parte alta de la portada, aunque mucho del contenido que tengan alrededor se personalizará para satisfacer los intereses y hábitos de cada lector.

El algoritmo del Times, creado a partir de datos como la geolocalización, apoyará las elecciones de la gente. Una persona que lea noticias, digamos por ejemplo desde India, podría ver noticias relevantes de la zona en un lugar más destacado que una persona que las lea desde Nueva York. La página ya ofrece la sección de “Recommended for you” (“Recomendado para ti”), que recopila artículos que aún no has leído, incluyendo esas sugerencias en correos a algunos suscriptores.

La última defensora del lector, Liz Spayd, comentó los cambios en una columna publicada en marzo explicando que había muchos lectores descontentos con los esfuerzos del periódico por ofrecer experiencias más únicas de lectura y por documentar y compartir la actividad de los suscriptores con ellos. “Pago una suscripción por una razón: el criterio y la experiencia de los editores y periodistas que hacen grande este periódico. No intentéis ser Facebook... Sed The New York Times y hacedlo bien”, comentó uno de los lectores.

“No intentéis ser Facebook”, queja repetida de los lectores

“No intentéis ser Facebook” fue un comentario repetido entre los que se quejaron. La red social ya tuvo su buena dosis de problemas en la gestión de noticias en sus intentos por ser “el periódico más personalizado del mundo”, como su máximo responsable, Mark Zuckerberg, la definió en 2013. Por no hablar de las noticias falsas que proliferan en los muros de los usuarios, la sección “Trending topics” pasó unos meses muy duros en 2016. Primero, los “gestores” de noticias fueron acusados de sesgo por esconder las noticias del ala conservadora; después, Facebook despidió a todo el equipo encargado de escribir la descripción de las noticias que aparecían en esa sección, con algunos resultados desastrosos, como cuando una noticia falsa –que decía que Megyn Kelly había sido despedida de Fox News por apoyar a Hillary Clinton– apareció en el primer puesto de las noticias trending. La noticia salió en el blog USPostman.com, una página web registrada en una dirección en Macedonia, conocido por su fuerte red de estafadores de información, según informó entonces PolitiFact.

En enero de este año, renunció por completo a los trending topics personalizados, filtrando los temas según la región geográfica de los usuarios, en lugar de según sus intereses.

Mucho más preocupante que los problemas de Facebook con sus trending topics fue la noticia que salió en septiembre de que la red social había vendido más de 3.000 anuncios –por un valor de al menos 100.000 dólares– a una compañía rusa relacionada con la difusión de propaganda y noticias falsas favorables al Kremlin. La compañía, haciéndose pasar por americanos en un sinfín de grupos y páginas, buscaba dirigirse a los votantes estadounidenses durante la campaña presidencial, y mientras que los anuncios no hacían referencia específica a las elecciones o a alguno de los candidatos, “parecía que se centraban en amplificar en el espectro ideológico los mensajes sociales y políticos que causaban más división”, escribió Alex Stamos, jefe de Seguridad de Facebook en un post. El hecho de que los temas de los anuncios fueran tan variados –desde inmigración y el derecho a portar armas hasta la comunidad LGTB y  Black Lives Matter– da pistas de cuánto daño puede hacer la personalización y de que no se limita a una sola ideología política. Poco después, Twitter anunció que había encontrado y suspendido al menos 200 cuentas relacionadas con operadores rusos, muchos de los cuales fueron identificados como los mismos compradores de publicidad activos en Facebook.

Mientras tanto, en mayo, Google probó de forma breve un filtro de búsqueda que echaría mano de su tesoro de datos de las cuentas de Google y Gmail de los usuarios e incluyó solo resultados de sus correos, fotos, elementos del calendario y otros datos personales relacionados con sus búsquedas. La etiqueta “personal” se supone que fue “solo un experimento”, según dijo un portavoz de Google, y esta opción se eliminó de forma temporal; no obstante, parece que en agosto muchos usuarios la encontraron de vuelta.

Ahora, Google, como forma de llegar a un acuerdo con una demanda colectiva que alega que escanear los correos para ofrecer publicidad específica equivale a hacer escuchas ilegales, promete que durante los próximos tres años no usará el contenido de los correos de sus usuarios para mostrar anuncios específicos en Gmail. Este movimiento, que será efectivo en una fecha aún sin especificar, no significa, sin embargo, que los usuarios no vayan a tener publicidad. Google seguirá recopilando información de las búsquedas de los usuarios, YouTube, Chrome y otras actividades.

El miedo a que la personalización fomente los filtros burbuja es legítimo

El miedo a que la personalización fomente los filtros burbuja estrechando la selección de noticias es legítimo, sobre todo teniendo en cuenta que el común de los usuarios de internet o consumidores de noticias es muy probable que no sea consciente de ello. Elia Powers, profesor adjunto de Periodismo y Medios de Comunicación de la Universidad Towson de Maryland, estudió el conocimiento por parte de sus estudiantes de las noticias personalizadas, tras darse cuenta de que estos no eran conscientes de hasta qué punto Facebook y Google personalizaban los resultados de los usuarios. “Vi que realmente no entendían... el papel [que tenían] los que personalizaban los algoritmos, lo influyente que era. Y tampoco entendían que ellos podían jugar un papel muy activo en Facebook diciéndole a Facebook qué tipo de noticias querían que les enseñara y cómo priorizar [el contenido] en Google”, explica.

Los resultados del estudio de Powers, que se publicaron en febrero en Digital Journalism, mostraron que la mayoría de los estudiantes no tenía ni idea de que los algoritmos filtraban el contenido de las noticias que veían en Facebook y Google. Cuando les preguntaron si Facebook muestra todos los elementos noticiosos publicados por organizaciones o personas en el muro de actualizaciones de un usuario, solo el 24% de los encuestados era consciente de que Facebook prioriza ciertas publicaciones y esconde otras. De igual manera, solo una cuarta parte respondió que los resultados de búsqueda de Google serían diferentes para dos personas que buscaran lo mismo al mismo tiempo.

Esto, por supuesto, tiene implicaciones más allá de las aulas, dice Powers: “La gente, como consumidores de noticias, necesita ser consciente de las decisiones que toman [por ellos] los algoritmos y las personas detrás de ellos, incluso antes de que abran los sitios de noticias, y también deben ser capaces de entender cómo pueden contrarrestar sus efectos o incluso de desconectar la personalización o hacer cambios en su muro de actualizaciones o en sus webs de noticias para tener un rol más activo y realmente ver lo que quieren ver en sus muros”.

En Google y Facebook, el algoritmo que determina lo que ves es invisible. “Estamos siendo entrenados para tener una relación con la inteligencia artificial”, afirma Amy Webb, fundadora del Instituto Future Today y profesora asociada en la Escuela de Negocios Stern de la Universidad de Nueva York. “Esto es mucho más catastrófico para los medios de comunicación que lo que fue la llegada de internet. Al menos con internet tenía opciones. El ecosistema de voz no se construye de esa manera. Se está construyendo para que tenga la información que necesito de una forma agradable”.

Webb sostiene que la voz es la próxima gran amenaza del periodismo, pero ofrece a los medios la oportunidad de jugar un papel mucho mayor en el día a día de la gente. Pronto, podremos con toda probabilidad interactuar con asistentes de voz como Siri y Alexa más allá de solo preguntarles por las noticias del día. Podremos interrumpirles y hacerles preguntas, no solo para situarnos en el contexto o profundizar en nuestro entendimiento de la actualidad, sino también para personalizarla. Preguntar “¿por qué debería importarme esto?” o, incluso, “¿cuál es hoy la noticia más importante para mí?”.

Hoy, puedes pedirle a Amazon Echo que te lea las noticias, un poco como en los canales de radio se leían las noticias directamente del periódico en los primeros años de la radio. Pero los ingenieros, periodistas e investigadores creen que, en un futuro cercano, los dispositivos de inteligencia artificial activados por voz ofrecerán una experiencia de noticias personalizadas y genuinamente interactiva. “Tal vez quiero tener una conversación con The Atlantic, pero no con USA Today, por lo que estoy dispuesta a pagar por ello”, dice Webb. “Esto tiene mucho que ver con la tecnología, pero también con la gestión, ya que de repente hay 20 tipos de puestos de trabajo diferentes que se necesita que existan y no están”.

El Flash Briefing de Echo viene con canales cargados por defecto –como NPR, BBC y Associated Press– ya activados, si bien “el consumidor tiene mucho que decidir” sobre lo que quiere escuchar de él, explica la portavoz de Amazon, Rachel Hass. Cualquier desarrollador web puede incluir un sitio en el Flash Briefing para que Echo bucee en busca de noticias, pero el hecho de que Amazon coloque un medio de comunicación como predeterminado le da a este una gran ventaja competitiva. Los estudios muestran que la gran mayoría de los usuarios no cambia los ajustes predeterminados en sus teléfonos, ordenadores o softwares, ya sea porque no quieren o, sobre todo, porque no saben cómo.

Más parecido a un motor de búsqueda, Amazon no se centra en diferenciar material de distintas fuentes o comprobar la información que ofrece Echo. Sin embargo, lo que Echo hace en los boletines es leer unas pocas líneas que han sido previamente elaboradas. “Mientras Alexa lee en voz alta tu Flash Briefing, ella asigna cada titular o noticia diciendo ‘De NPR’ o ‘De Daily Show’”, explica Hass. Hay también enormes incentivos para que medios de comunicación se lleven bien con Amazon como forma de consolidarse en los ajustes predeterminados del dispositivo, una relación que recuerda la dañina dependencia que los medios tienen de Facebook respecto a su tráfico.

Como los Flash Briefing no se limitan solo a los medios tradicionales, probablemente podrías encontrar resúmenes procedentes de todo tipo de fuentes, incluidas redacciones completas o meros individuos. Incluso, el exvicepresidente Joe Biden envía resúmenes diarios de noticias, incluyendo artículos que él mismo ha seleccionado y que están disponibles tanto en el Google Home como en el Echo.

“Alexa ya tiene 3.500 Flash Briefing” entre sus habilidades, término que Amazon emplea para los programas de comandos con aspecto de app creados por los desarrolladores para usar en Echo. Por ejemplo, está la habilidad Trump Golf, que ofrece actualizaciones sobre las salidas a jugar al golf del presidente Trump en cuanto se activa la orden: “Alexa, pide a Trump Golf una actualización”.

“Sospecho que estos dispositivos son lo más importante que ha salido desde que llegó el iPhone en 2007”, dice Kinsey Wilson, exeditor de Innovación y Estrategia en The New York Times, “porque abren espacios, sobre todo en casa y en el coche, que permiten una interacción mayor y más informal”.

En cierta forma, la voz parece una extensión de la búsqueda. Dispositivos como Amazon Echo y Google Home permitirán a los usuarios hacer búsquedas sin tener que teclear. Aunque mucho más que eso, están pensados para interactuar a través de la conversación. “No se trata tanto de hacerles unas cuantas preguntas, sino de colaborar en el análisis de un tema concreto”, dice Alex Rudnicky, profesor de Informática en la Universidad Carnegie Mellon. “Es la idea de ‘¿No sería genial si pudieras llamar a un amigo que tiene muchos conocimientos y tener una conversación con él?’”.

Este elemento de personalización no es solo la enorme sensación de camaradería que uno puede sentir hablando con un robot en contraposición a una pila de periódicos o un busto parlante de la televisión por cable. La personalización se basa en el hecho de que dispositivos como Echo aprenden de manera activa sobre el usuario humano en cada interacción y ajustan su comportamiento acorde a ello. Es la misma técnica de personalización que usan Google y Facebook –sorber un sinfín de información de cada usuario y después ofrecer servicios personalizados que se adapten a ellos–, pero usa dispositivos que están siempre escuchando y, por tanto, aprendiendo.

Los medios que quieran crear productos periodísticos para dispositivos activados por voz tendrán que pensar cómo elaborar y empaquetar historias completamente diferentes, quizás incluir sistemas avanzados de etiquetado para segmentos de esas historias y asegurarse de que estos procedimientos se integran con los sistemas operativos que usan estos dispositivos. “Puede que tengamos que repensar desde cero los existentes posicionamientos SEO”, dice Trushar Barot, miembro del equipo de desarrollo digital del servicio de BBC Mundo. “Surgirán nuevos procesos nacidos para el reconocimiento por voz”.

Los asistentes de voz personalizados se enfrentan a potenciales obstáculos. Uno de los problemas es sonar demasiado como una máquina, sonar como un humano es otro. “Psicológicamente, para la gente es muy fácil empezar a humanizar el dispositivo y transformarlo en una entidad real y desarrollar hacia él sentimientos humanos”, explica Barot. “Además, está el hecho de que es un dispositivo que está en sus casas y que aprende cada vez más cosas acerca de sus vidas, y así potencialmente se vuelve más inteligente para hacerte sugerencias o darte ideas de forma proactiva. Esto conlleva complejos asuntos éticos”.

El uso de los interfaces de voz por parte de los medios plantea multitud de cuestiones éticas relacionadas con la recogida de datos, la privacidad y la seguridad. No sabemos exactamente qué datos recogen estos dispositivos de cada individuo –muy pocas personas leen las políticas de privacidad de las compañías–, pero si los teléfonos inteligentes nos han enseñado algo, la dura respuesta es: todo lo que puedan. Y no hay una respuesta fácil a la pregunta de quién posee esa información exactamente, aunque una cosa es segura, no eres (solo) tú. Estos datos tienen un inmenso valor, no solo para quienes los generan, los recogen y los analizan, sino también para una gran cantidad de compañías, gigantes tecnológicos y demás.

¿Qué hacen, entonces, los medios de comunicación con la información sobre su audiencia? “En los medios hay vías en potencia para emplear esa personalización [de datos] de una manera útil”, dice Donath, del Centro Berkman Klein. Depende ampliamente “de lo que pienses que es la misión de una redacción. ¿Se trata de mantener a la gente informada al mismo tiempo que, en la medida de lo posible, tener un modelo propio de qué información es importante y que la gente debería conocer? ¿O es más un modelo de entretenimiento?”. Si es esto último, los datos sobre esa audiencia son enormemente valiosos para que las organizaciones estén seguras de que están creando y distribuyendo el tipo de contenido que la gente quiere cada día.

Amazon se está planteando entregar a los desarrolladores las transcripciones íntegras de lo que la gente dice a Echo, según un reportaje publicado en julio en The Information. Las redacciones tendrán que abordar si es ético usar esas transcripciones para ganar dinero, un tema que enfurecería a los consumidores más celosos de su privacidad. Para los editores de medios, podría ser un importante flujo de ingresos, pero también podría alejar a las audiencias y disminuir su confianza, no aumentarla.

¿Qué ocurre con la percepción de la información de una persona si, por ejemplo, la misma voz un día le lee titulares tanto de Breitbart como de The Washington Post? “¿Qué es lo que esto hace en tu nivel de confianza de ese contenido?”, pregunta Barot. Además, “hay muchos estudios que demuestran que la gente sobre todo confía o cree en el contenido o en las noticias o en la información que comparten sus amigos. Por lo que si lo que se está desarrollando es una dinámica similar, ¿en qué situación deja a las redacciones?”. La pérdida del sentido de las fuentes es una cuestión crucial, según Donath: “Lo que es útil es saber de dónde viene algo. En función de cuál sea tu visión, puede hacer que lo creas más o menos. Cuando ves algo en este flujo genérico, no sabes si te están informando desde una tendencia de derechas o de izquierdas. En muchos sentidos, el significado completo de lo que estás leyendo no está”.

La personalización agravará los problemas de confianza en los medios

Desde luego, estas cuestiones no son exclusivas de la tecnología asistida por voz. Hay razones para preocuparse de que la personalización agravará los problemas de confianza en los medios de comunicación, teniendo en cuenta la brecha partidista que mostró la encuesta Gallup de septiembre de 2017 sobre la confianza de los estadounidenses en los medios. Aunque la confianza entre los demócratas se ha disparado a su nivel más alto de las últimas dos décadas, pasando de un 51% en 2016 a un 72% este año, ha ocurrido lo contrario entre los republicanos: solo un 14% tiene una gran o bastante confianza en los medios, que establece, junto con 2016, el resultado más bajo en la historia de esta encuesta.

Aunque a muchos lectores de periódico puede que les guste que les saluden por su nombre cada vez que un gran medio les envía un resumen de noticias, los medios corren el riesgo de sonar falsos, de la misma manera que los correos de campaña de los políticos parecen impersonales por mucho que intenten lo contrario.

Según Powers, los medios deberían contarles a sus audiencias que el contenido que están viendo puede que no sea el mismo que ve su vecino, y cómo podrían renunciar a esa personalización. “Es necesaria más transparencia acerca de qué datos están recogiendo y cómo la gente puede activar o desactivar [la personalización] de manera manual o cómo interviene en lo que ven”, dice Powers.

Es imprescindible que los medios no dejen solos a los algoritmos con la personalización

Y quizás más importante: es imprescindible que los medios recuerden que no pueden dejar solos a los algoritmos con la personalización. Al hacerlo, únicamente reducirán el consumo de noticias por parte de la audiencia en lugar de aumentarlo, y ello podría llevar a que prolifere la desinformación. “Siempre necesitas tener un editor humano real que se asegure de que lo que es popular no sea falso o dañino”, dice Powers.

La personalización debería ser una forma de mejorar las decisiones editoriales que toman los editores humanos, profesionales comprometidos con que la calidad del periodismo es un componente esencial de una sociedad abierta. Los algoritmos que filtran las noticias creados por compañías que ni siquiera admiten que están en el negocio de los medios –ni mucho menos que están en una posición que hace mucho daño– no están sujetos ni a los más básicos estándares periodísticos. Sin embargo, son las fuerzas dominantes que están filtrando el mundo que nos rodea en tiempo real.

Con la colaboración de Eryn Carlson

 *Este artículo fue publicado originariamente en Nieman Reports: http://niemanreports.org/articles/the-power-of-personalization/

TRADUCCIÓN: Patricia Rafael


1.- Nota de la traducción: Michael Oreskes dimitió poco después de publicarse el artículo tras ser acusado de acoso sexual.
2.- Nota de la traducción: en España no está disponible este servicio por desacuerdos entre Google y los editores de periódicos.