31/08/2018

Cómo combatir los bulos

Desinformación: pulsa aquí y te sorprenderá

Escrito por Myriam Redondo

Es casi imposible haber leído sobre los últimos acontecimientos de impacto internacional sin toparse con las palabras trol o bot. Hoy todo parece teñido por las falsedades que distribuyen estas cuentas falsas: las elecciones que ganó Donald Trump, la guerra de Siria, Ucrania, Cataluña... Pero la desinformación tiene muchos otros flancos de avance y muchos modos también de defenderse. Este artículo sitúa a un ciudadano en una línea figurada de metro, en la que las estaciones simbolizan los ángulos del fenómeno. El objetivo es entender mejor su complejidad y conocer qué se puede hacer para combatirlo individualmente y en común.

 

MYRIAM REDONDO*

Primera estación: Nombres

Sobre esta parada de metro hay un polígono industrial desordenado conocido como “cajón de sastre”. La primera dificultad con la desinformación es definir y clasificar sus componentes. Los bots son cuentas automáticas, programadas para realizar una u otra acción, pero crecientemente eluden la detección colocando tras el volante a humanos que intervienen de modo temporal. Son los llamados “perfiles cíborgs”.

Ocurre lo mismo con los troles, esas cuentas anónimas utilizadas para violentar conversaciones. Es aventurado señalar como trol ruso a algún usuario que siga con vehemencia argumentarios del Kremlin. Puede suceder que se personalice públicamente demostrando que es solo un ciudadano nacional ofuscado con su Gobierno. Una cosa es que se exprese como un trol, que sus afirmaciones se consideren extremistas o que parezca totalmente alineado con Moscú; otra, que pueda tildarse a ese sujeto de marioneta del servicio de inteligencia militar ruso (GRU) o de la Internet Research Agency (IRA), única fábrica de troles políticos con sede física en Rusia y funcionamiento sistemático que ha sido identificada y visitada.

También la expresión “noticias falsas” o “fake news” se ha vuelto borrosa. La agencia AP recomienda utilizarla explicando al lector a qué hace referencia. Los expertos desaconsejan su uso porque se refería inicialmente a mentiras objetivables, pero, por ejemplo, Donald Trump se sirve de ambos términos para desacreditar trabajos de medios que no le gustan, sin más. En Estados autoritarios usan las fake news como excusa para encarcelar a la oposición: etiquetan así las afirmaciones críticas y eso permite llevar a su autor a prisión. Hay Gobiernos agitando incluso el llamado “troleo patriótico” para expulsar de las redes a los disidentes, como ocurre en Filipinas.

First Draft News, impulsora de los esfuerzos internacionales contra la desinformación digital, es probablemente la entidad que más ha trabajado para conseguir una definición comprensible de las noticias falsas, concluyendo con honestidad: “Es complicado”. Es preferible hablar de desinformación o de “desórdenes informativos”, y dentro de ellos los hay de muy diverso tipo.

La mentira digital tiene muchas caras. Puede tratarse de un rumor, de un error, de una falsedad (algo que simplemente no se corresponde con la realidad), de una falacia (algo que sí esconde intención de daño) o de una campaña propagandística encubierta organizada por fuentes poderosas. En su origen, quizá haya una persona despistada generando un malentendido con un tuit ambiguo: un buen samaritano difundiendo la necesidad de donaciones de sangre cuando la petición era de ayer, una gran empresa expandiendo información interesada o todo un servicio secreto. Y a veces, las líneas son borrosas y lo que empieza como un error se convierte en una falacia, o lo planificado con malicia es repetido por un usuario inocente que desconoce su origen. El mundo digital es como una fiesta de carnaval en la que son posibles todos los disfraces y las vestimentas están muy bien hechas para ocultarlo casi todo.

Segunda estación: Herramientas

Sobre esta parada se encuentra un parque público en el que innovadores columpios, toboganes y balancines imitan las formas de un martillo, un alicate, un tornillo... Al principio, los padres desconfían; después, comprenden que el equipamiento ofrece incluso mayores condiciones de seguridad para sus hijos.

El debate sobre la desinformación vuela muy alto, envuelto en nebulosas de millones de bots. El ciudadano tiende a pensar que no puede actuar personalmente contra el fenómeno, aunque sí que hay trabajo individual por delante; y dadas las circunstancias, esa tarea podría tomarse casi como una responsabilidad cívica. Algunas técnicas y recursos permiten afinar la búsqueda y criba de información digital (lo que en inglés se describe con términos como newsgathering y curation). Estas herramientas no tienen la profundidad y alcance de grandes servicios comerciales como Palantir o Maltego, utilizados por los servicios de inteligencia para investigar individuos y relaciones, pero son gratuitas, sencillas y ayudan con el qué, quién, cuándo, dónde y por qué de una noticia que germina en redes (las llamadas 5W del periodismo: what, who, when, where y why). Muchas pueden consultarse en el libro Verificación digital para periodistas (Redondo, UOC, 2018).

Sobre el quién, Inteltechniques aglutina numerosas aplicaciones recomendables. Desde su apartado “Tools-Facebook” rastrea todo aquello que un usuario haya marcado o publicado en abierto en esta red social: lugares visitados, “me gustas”, fotografías en las que esté etiquetado, pertenencia a grupos, etc. Solo hay que averiguar el número identificador de su perfil e introducirlo en el formulario que se ofrece. Para identificar cuentas y campañas automatizadas con cierto nivel de certeza, es necesario realizar un análisis de redes en profundidad con herramientas como T-Hoarder y Gephy, e incluso en este caso puede ser difícil llegar al paciente cero u origen de la desinformación. No obstante, sitios como Follow the hashtag ofrecen impresiones útiles sobre cuentas sospechosas. A partir de sus últimos 1.500 tuits, el servicio señala con qué otras cuentas se relaciona, sobre qué dialoga o de dónde dicen proceder sus seguidores. Un perfil real suele tener sus seguidores concentrados en el país del que procede.

A la hora de valorar contenidos (qué), son de ayuda creciente webs como Maldita.es y Snopes. Quienes inventan falacias las impulsan internacionalmente cambiando tan solo el idioma y el contexto de los hechos. Si uno busca el titular completo o términos relacionados en estos sitios (en español y en inglés, respectivamente) encontrará probablemente desmentidos de textos previos similares. El lector puede probar con el famoso bulo de Ricky Martin y aquella emisión inexistente de televisión: escriba marmalade en Snopes.com.

Escenas de violencia pertenecientes a protestas antiguas, calamidades captadas en huracanes de hace años (cuándo)… La mentira actual viene crecientemente envuelta en formato de imagen, vídeo o meme. Con el complemento InVid, financiado por la Unión Europea e impulsado, entre otros, por la agencia AFP y Deutsche Welle, se realizan varias operaciones interesantes. La más básica es comprobar si una imagen o un vídeo ha sido publicado antes y, por tanto, pertenece a un episodio noticioso anterior. Entre las avanzadas se encuentra la posibilidad de pasar una imagen por ocho filtros técnicos para detectar los engaños más habituales: clonado de objetos, cortado y pegado de figuras y borrado o difuminación de contornos. InVid no siempre acierta, pero ayuda sobre todo cuando indica marcas extrañas precisamente en ese objeto dudoso dentro de la imagen (para instalarlo, aquí).

Comprobar el lugar donde se encuentra un usuario es una de las operaciones más complicadas en redes sociales (dónde). Puede citar una ciudad distinta de la propia en su perfil u ocultar la IP que identifica su conexión. Sin embargo, es más difícil mentir sobre el emplazamiento donde se tomó una imagen, y por eso, la geolocalización de material audiovisual es un área de creciente atención entre los medios. Se ha comprendido que esta técnica ayuda a combatir la propaganda de guerra. En el multimedia “How Syria spun a chemical attack” [“Cómo Siria contó un ataque químico”], The New York Times muestra mediante técnicas forenses basadas en mapas cómo los Gobiernos de Rusia y Siria infoxicaron sobre el origen del ataque químico en la localidad siria de Jan Sheijun.

Luchar contra la desinformación podría tomarse casi como una responsabilidad cívica

Lo mejor que puede hacer el usuario para sumarse a estos esfuerzos es habituarse a observar detalladamente imágenes para tratar de ubicarlas en los mapas de servicios gratuitos como Google Maps y Google Earth Pro. Aquí hay un ejemplo de uso de este último, que requiere descarga.

Tercera estación: Educación

Falta la quinta pregunta periodística, ¿por qué se difunde una mentira? Por los motivos más dispares y sin que necesariamente haya tras ellos una potencia extranjera, como explica el ejemplo del “buen samaritano”. Tampoco es obligatoria una intención política, como muestra el ascenso de desinformación sobre pseudociencias y salud. Por ello, la  mejor forma de defenderse contra todo tipo de mentira en las redes es idéntica a la que debe adoptarse en el mundo real: mantener una actitud inicialmente escéptica ante el bombardeo de datos, imágenes y juicios de valor que hacen llegar los medios.

Es más importante enseñar técnicas o protocolos que herramientas concretas

El escepticismo también se enseña. El metro para ahora justo debajo de un distrito que aglutina colegios, institutos y universidades, esos lugares en los que desde hace años los países avanzados están comprometidos a enseñar materias (matemáticas, lengua, ciencia) y competencias o habilidades. Entre ellas están la alfabetización mediática o capacidad para interpretar con sensatez los mensajes informativos y la alfabetización digital o destreza para manejar las nuevas tecnologías. La verificación digital se relaciona con ambas y sería recomendable su impulso desde los niveles formativos iniciales, cuando se aprende a navegar. Se trata de reforzar el paso de una lectura crítica a una lectura crítica digital.

En 2016, la Universidad de Stanford publicó el estudio Evaluando la información: la piedra angular del razonamiento digital cívico. Basado en estudiantes de distintas edades, detectó lagunas notables a la hora de valorar la credibilidad de una información y de distinguir las noticias de la publicidad en internet. Por ejemplo, un 80% de los escolares creía que los contenidos patrocinados eran noticias, y solo el 20% de los bachilleres se preguntó por la fuente de un artículo sobre los efectos del desastre nuclear de Fukushima. Para la mayoría, que este texto incluyese la fotografía de una flor deformada ya era una prueba de veracidad, pero la imagen estaba trucada. La Organización para la Cooperación y el Desarrollo Económico (OCDE) incluirá en su próximo informe educativo PISA pruebas para medir la destreza de los estudiantes en detección de falsedades. En España, muchos profesores están impartiendo ya enseñanzas sobre los bulos, si bien no ha habido una acción unívoca del Gobierno o las comunidades autónomas para reforzar la desinformación digital de modo concreto en el currículo educativo.

En verificación digital no hay bala de plata ni herramientas infalibles, siempre será necesario combinar el máximo número posible de comprobaciones hasta alcanzar conclusiones que muchas veces llegan solo de forma indiciaria. Asimismo, los recursos disponibles quedan pronto desfasados, porque, en un juego permanente de gato y ratón, quienes mienten se adaptan a los nuevos controles y hay que refinarlos. Es más importante enseñar técnicas o protocolos que herramientas concretas. Las segundas quedan rápidamente desfasadas, las primeras permanecen.

Una recomendación es seguir a expertos que informan habitualmente de novedades sobre la materia, como los incluidos en la lista de Twitter “Verification”. Otra es estar atento a los listados de recursos que mantienen personas y sitios de referencia como Bellingcat, Osint Framework, Eoghan Mc Suibhne17 y Julia Bayer.

El lector deberá desconfiar sobre todo si: a) una noticia sorprendente le gusta demasiado o le irrita demasiado (puede estar diseñada para ello), b) no hay claridad sobre la fuente original: en cuanto al medio que publica, en cuanto al periodista que firma o en cuanto al nombre de la persona que ha filtrado el dato al periodista y c) no hay enlace para ampliar contenido más allá de una captura de pantalla, un tuit o un post [entrada o artículo].

Cuarta estación: Distrito Tecnológico

Sobre este punto del metro se sitúa el distrito empresarial, con las sedes de tres multinacionales tecnológicas destacadas: Facebook, Google y Twitter. Los directivos de las tres compañías solían pasear tranquilamente, insistiendo en diferenciarse de los medios de comunicación tradicionales por su pesada carga que conllevaba su reconocida “responsabilidad social”. Las empresas nacidas en un garaje, apartamento o similar eran mucho más libres. Pero la victoria de Trump lo cambió todo en noviembre de 2016 y los directivos ya no se sienten tan queridos caminando por la calle. Desde entonces se vigila cualquier cosa que ayude a la expansión de las falacias, y estas compañías han contribuido a ellas voluntaria e involuntariamente.

Se les culpa principalmente de cinco cosas: consentir un abultado número de cuentas falsas sin preocuparse por detectarlas o eliminarlas; diseñar algoritmos que promocionan contenidos sensacionalistas y no de calidad; carecer de transparencia, con una actitud entre lo ambiguo y lo taimado cuando se solicitaban datos de su actividad; desproteger los datos privados de sus ciudadanos, exponiéndoles a propaganda personalizada de riesgo, y desatender las inserciones de publicidad política en sus espacios, sin comprobar quién financiaba y si se trataba de entidades extranjeras.

A trompicones, las tres firmas empezaron a colaborar con verificadores digitales y fact-checkers y fueron asumiendo que también tenían responsabilidad sobre los contenidos que transmitían, aunque fueran ajenos. En octubre de 2017 se vieron obligadas a explicar su funcionamiento ante el Senado de EE. UU. Acudieron altos cargos, pero no sus máximos representantes.

La trayectoria de Facebook ha sido la más llamativa. Primero se supo que, en esta red social, las noticias falsas relativas a la campaña electoral estadounidense habían logrado más interacción con los usuarios que las noticias reales. La empresa empezó a cooperar con investigadores y a realizar experimentos para mejorar sus algoritmos. Después se apuntó que la plataforma había sido clave para extender propaganda divisiva procedente de Rusia. Informó entonces sobre la actividad de cuentas vinculadas a la fábrica de troles IRA y cerró decenas de miles. Y en ese punto estalló el escándalo Cambridge Analytica. Facebook y su servicio Instagram extraen datos muy detallados de sus usuarios y los segmentan. Esto hace posible la publicidad programática basada en perfiles psicográficos: una firma podrá insertar anuncios de su estiloso modelo de zapatillas de tenis solo en el muro de personas con interés en la moda y este deporte. Esa información empaquetada llegó hasta una compañía, Cambridge Analytica, que la utilizó para dirigir falsedades pro-Trump a personas con perfiles psicológicos potencialmente impresionables. Esta vez Mark Zuckerberg sí se avino a testificar ante el Senado en una situación evidentemente incómoda para él. Todos los miedos sobre el exceso de tamaño, poder y ambición de la multinacional, así como sobre la vulnerabilidad de sus usuarios, habían estallado juntos.

Además de facilitar información sobre el daño provocado por la IRA y colaborar más estrechamente con los verificadores, las tres tecnológicas han movido importantes losas de piedra y es justo destacarlo, aunque no se sepa muy bien todavía si ha sido para dejarlas en un lugar más adecuado. Facebook ha despistado con sus vaivenes. Introdujo un aviso de “noticia disputada” en aquellas informaciones consideradas discutibles por fact-checkers externos; después, sustituyó este sistema por la oferta de enlaces relacionados para contextualizar tales contenidos. Una de sus decisiones más polémicas ha sido el anuncio de que preguntaría a sus usuarios, y no a expertos, qué sitios consideraban de confianza. La compañía de Mark Zuckerberg también ha probado a introducir cambios en el muro de los usuarios. Apartó de este emplazamiento las noticias en seis países para ver si disminuía la circulación de falsedades, pero comprobó que aumentaba y anuló el cambio.

Google ha empezado a ofrecer información contextual en los resultados de sus búsquedas más controvertidas y ha modificado algoritmos para reducir la visibilidad de informaciones problemáticas, como las que niegan el Holocausto. No obstante, sigue recibiendo críticas. Tras los tiroteos de Las Vegas y Park-land (EE. UU.), hizo emerger numerosos bulos y teorías de la conspiración. En su servicio YouTube, considerado por muchos la gran autopista de la desinformación, vídeos indeseables se filtran hasta en los canales infantiles.

Todos los medios han contribuido a la polución informativa actual

En cuanto a Twitter, anunció en su blog en junio de 2017 que dedicaría más recursos y equipos a construir “herramientas y procesos”, aunque sin dar detalles. En diciembre cerró millones de cuentas asociadas a conductas de odio, generando irritación entre la comunidad supremacista blanca. Sin embargo, en noticias de última hora sigue funcionando como carril rápido para muchos bulos, y en ocasiones ha cerrado grandes cantidades de cuentas automatizadas solo después de que los medios destapasen su carácter ficticio. Así ocurrió tras la publicación de “The Follower Factory”, sobre compra masiva de seguidores, en The New York Times.

Las tres tecnológicas están haciendo fluir mucho más dinero y contratando a más expertos para investigaciones internas y externas sobre la desinformación.

Quinta estación: Ciudad de la Prensa

Junto al distrito tecnológico, casi sin distinguirse de él, se encuentra la Ciudad de la Prensa. A lo largo de la crisis económica, la mayoría de los medios se ha apuntado también a la extracción de datos de sus usuarios para convertirlos en ingresos a través de ofertas personalizadas y publicidad. Asimismo, se observa una mezcla discutible entre información y publicidad, con contenidos patrocinados y anuncios tan camuflados (es la llamada publicidad nativa) que a veces el usuario no los puede distinguir de las noticias. Ese entorno contaminado desdibuja la realidad que percibe el lector y le oculta ciertos intereses. Sería deseable repensar la estrategia para saber si otro modelo de ingresos es posible. Como no parece algo factible, al menos de modo inmediato, lo que le queda al ciudadano es exigir más transparencia sobre cuáles de sus datos se extraen, cómo se están utilizando y qué condicionantes técnicos, económicos o ideológicos hay tras la información.

Todos los medios, nuevos y tradicionales, han contribuido a la polución informativa actual. En aras de su supervivencia, han competido por la atención apuntándose al juego de los titulares sensacionalistas o engañosos (clickbait), que cumplen la función de atraer al lector hacia un contenido que no ofrece lo prometido. Kardashian se destapa, no imaginas los kilos que adelgazarás con esta pastilla, pulsa aquí y te sorprenderá. También han intentado competir en el terreno de la rapidez, que deja muchas comprobaciones y fiabilidad por el camino. La mayoría de los fallos que cometen las redacciones con contenidos amateurs se producen ante noticias de alcance. Un atentado funciona bien como ejemplo: se dan demasiado pronto el número y nombre de los atacantes y las cifras de víctimas; luego, hay que realizar correcciones. Se suelen atribuir los hechos a minorías étnicas o religiosas cuando todavía faltan pruebas. Se difunden imágenes ciudadanas sin comprobación, o se atribuyen a quien las publica sin verificar si es el verdadero autor. Los contenidos generados por los usuarios no pueden demonizarse, puesto que tienen enorme valor y contribuyen a crear ejercicios periodísticos de primer orden, pero su validez debe ser comprobada.

Otro fenómeno observable ha sido el de la desinformación sobre la desinformación. Algunos medios han dramatizado la importancia de las noticias falsas y los bots porque atraía lectores, sobre todo si se podía perfilar un enemigo externo. Se han recogido estudios cuantitativos sobre bots rusos sin exponerlos en su totalidad, ni al público ni a la Academia, y se han forzado titulares y artículos porque el clima de nueva Guerra Fría garantizaba el éxito de ese relato. Esa relajación en el rigor periodístico se ha visto en grandes cabeceras y cadenas de EE. UU. y Europa Occidental, incluida España, y el lector debe ser consciente de ella. Las falacias en la red pueden llegar a constituir una amenaza para la estabilidad de los Estados, como se ha dicho, y deben estudiarse desde el contexto de las nuevas guerras híbridas, sobre todo si se combinan con ataques informáticos (ciberguerra), pero la mayoría de las veces no encajan en ese marco “securitizado” y de participación foránea. En El Confidencial, algunos internautas acusados de ser troles rusos aseguraban que eran españoles.

Los medios financiados por Rusia no han vivido esta espiral confusa desde la inocencia. La cadena de televisión RT (antigua Russia Today) y la agencia Sputnik llevan años expandiendo en redes el tremendismo sobre la decadencia occidental, exagerando sus grietas, combinando breves destellos de periodismo alternativo útil y buen trabajo de algún reportero con mentiras a mansalva. Y todo ello en inglés, árabe, español, francés y otros idiomas. Hasta el año pasado, cuando los estudiantes entregaban un trabajo en la universidad, solían incluir entre sus fuentes siempre a estos dos medios. Se han adaptado tan bien a los nuevos formatos digitales y a los buscadores (SEO) que sus contenidos eran de los más vistosos y de los primeros en aparecer al investigar en la web. Mientras, otros medios financiados por EE. UU. y con parecida prioridad geográfica, el este de Europa, languidecían (Voice of America y Radio Free Liberty).

Al respaldar el periodismo de calidad, se colabora contra la  desinformación

A finales de 2017, Google empezó a penalizar a RT y Sputnik en sus resultados y EE. UU. forzó a la cadena de televisión a registrarse como agente extranjero, impidiendo notablemente su actividad. Delante de Putin, el presidente de Francia, Emmanuel Macron, describió a ambas opciones como agentes difusores de “burdas mentiras”; y posteriormente, pautó vigilar estrechamente su información. Ofrecieron noticias muy perjudiciales para él durante la campaña electoral, privilegiando a la candidata de extrema derecha, Marine Le Pen.

Muchos medios ya están colaborando contra la desinformación al respaldar el periodismo de calidad y buscar la complicidad de los usuarios para apoyarlo. En EE. UU., las cabeceras de perfil más investigador ganaron suscriptores inmediatamente después de la victoria de Trump, con un claro mensaje de reconocimiento ciudadano a su tarea. Otra necesidad es la de formar a los periodistas y colocar al frente de los artículos sobre la materia a redactores especializados, así como colaborar más estrechamente con académicos y empresas emergentes para incluir herramientas contra la desinformación como parte de la oferta del medio. El francés Le Monde ha desarrollado Décodex, en el que se clasifican más de 600 fuentes digitales como satíricas, falsas o creíbles. El lector puede buscar una dirección URL en este recurso para comprobar si pertenece a un sitio fiable o no. Más acciones emprendidas por los medios son lanzar secciones destinadas a recopilar bulos, realizar más investigaciones basadas en fuentes digitales abiertas y desmenuzar a los lectores los pormenores de sus averiguaciones (narrativa de verificación).

Sexta estación: Política

Encima de esta parada de metro se encuentran la sede del Gobierno y el Parlamento. A raíz de la experiencia electoral de EE. UU. se activó el temor a la desinformación en Europa. Los bots y troles ya habían aparecido ante el referéndum del brexit (junio de 2016) y lo volvieron a hacer en las elecciones de Francia y Alemania, en abril-mayo y septiembre de 2017, respectivamente. Actualmente, Estados de América Latina, en especial México, parecen padecer las olas más relevantes de propaganda automatizada.

La desinformación se ha convertido en un arma arrojadiza entre partidos

La reacción de los Gobiernos afectados ha sido en algunas ocasiones legítimamente defensiva; no obstante, en otras ha estado tintada de afectación política. Las cuentas y noticias falsas salpimentan discursos del miedo y funcionan como cortina de humo que oculta otros problemas nacionales. En el Reino Unido, inmerso en el proceso negociador del brexit, Theresa May ha dado protagonismo al fenómeno de los bots, acusando abiertamente al Gobierno ruso de “convertir la información en un arma” y difundir noticias falsas. Numerosas cuentas falsas alentaron a salir de la UE, aunque un estudio del Oxford Internet Institute terminó constatando que la incidencia de los bots rusos entre ellas había sido mínima. Ahora se investiga su impulso desde Cambridge Analytica, que es una empresa británica.

Durante la crisis por el proceso independentista de Cataluña (octubre de 2017), también el Gobierno español apuntó al Gobierno ruso ante la expansión de bots, troles y noticias falsas. Tras la queja de Moscú, matizó que no podía señalarse al Kremlin como inductor del agitprop [propaganda de agitación]. El entonces presidente, Mariano Rajoy, llegó a afirmar en una entrevista con el diario alemán Handelsblatt que “en las cuentas españolas de Twitter sobre el tema catalán había muchos perfiles falsos: más del 50% están registrados en Rusia y un 30% en Venezuela. Tan solo el 3% de las cuentas eran reales”. No hay informes oficiales sobre lo acontecido aquellos días en la red.

En la parada de metro llamada “Política” también se encuentra el Parlamento. La desinformación se ha convertido en un arma arrojadiza entre partidos, cuando su observación y mitigación debería responder al principio de neutralidad y a intereses de Estado. Al estilo de Trump, muchos líderes utilizan ya la expresión “noticias falsas” como ataque al contrario. Esta situación refleja la polarización existente en muchos países. No solo hay dudas sobre los datos que describen una circunstancia, sino que –en línea con la llamada posverdad– cuando se obtienen, la gente prefiere interpretarlos siguiendo pautas ideológicas. Como subraya Ethan Zuckerman en el artículo “Fake news is a red herring” [“Las noticias falsas son una cortima de humo”], solucionar el problema de las noticias falsas ayudará, pero lo difícil será encontrar territorios comunes donde entendernos.

Cada ciudadano, un agente contra el “hooliganismo” desinformador

Expertas del instituto Data & Society se dispusieron a examinar en 2017 la propaganda digital de Daesh y acabaron descubriendo otro tipo de polución informativa de impacto que estaba quedando bajo el radar. Grupos extremistas de muy diverso signo confluían en un discurso radicalizado cuyo objetivo común era generar desconfianza en el sistema. Desde la nueva extrema derecha (Alt-Right) se impulsaban teorías de la conspiración y se afianzaban ideas contra los inmigrantes, las mujeres, los homosexuales y la presunta pérdida de moral. Otros estudios muestran que los inmigrantes se consolidan como chivo expiatorio y son víctimas propicias de la desinformación con intención desestabilizadora.

Hay políticos alentando esta confusión, aunque también se debe a nuestra propia psicología. Por el llamado “sesgo de confirmación” tendemos a retener la información que encaja con nuestras creencias, rechazando la opuesta. El usuario haría bien en acostumbrarse a verificar contra sí mismo y a dudar de sus propias convicciones, reforzadas por esas burbujas digitales en las que termina relacionándose casi únicamente con gente de su mismo parecer. Algunos medios han lanzado iniciativas para superar esas barreras, ofreciendo informaciones contrarias a su línea editorial: “Blue Feed, Red Feed” [“Contenidos en redes azules, Contenidos en redes rojos”] en The Wall Street Journal y “Burst your Bubble” [“Estalla tu burbuja”] en The Guardian. El sostenimiento y alcance de estas iniciativas no están claros.

En la medida de sus posibilidades, cada ciudadano debería convertirse en agente contra el “hooliganismo” desinformador, especialmente en plataformas de mensajería instantánea en las que surgen muchas veces los bulos y cadenas de engaño más recalcitrantes, impulsados por conocidos y familiares.

Séptima estación: Calle de la Ley

En esta parada se encuentran los juzgados de la ciudad. Para abordar el problema de las noticias falsas, la Comisión Europea configuró en enero de 2018 un grupo de expertos de alto nivel. Entre ellos se encontraba la española Clara Jiménez (@cjimenezcruz), de Maldito Bulo. Su informe final aconsejaba evitar la mencionada expresión y centrarse en promover cinco pilares: transparencia de las noticias y su circulación en línea, alfabetización mediática y digital, empoderamiento de usuarios y periodistas para combatir la desinformación, salvaguarda de la diversidad y sostenibilidad del ecosistema mediático y, por último, investigación y evaluación de las soluciones ofrecidas para comprobar qué es lo que funciona. Aquí pueden consultarse el informe y sus puntos principales.

Para los partidarios de legislar con dureza sobre la materia, el texto supuso una desilusión. Hace énfasis en la libertad de expresión y rechaza la perspectiva de prohibición de contenidos defendida desde Gobiernos como los de Alemania, Reino Unido, Francia, Italia y España. El motivo principal es, como se ha explicado, la dificultad para definir y delimitar la falsedad en línea. Se corre el riesgo de regular en caliente y censurar contenido ambiguo o perteneciente al terreno de la opinión. Pagan justos por pecadores y, en ocasiones, los pecadores no pagan, pues sitios conocidos por generar sistemáticamente falacias se colocan la etiqueta de publicación satírica para eludir cualquier castigo.

¿Qué institución debe dictaminar sobre lo verdadero o lo falso?

En todos los Estados en los que se han propuesto o puesto en marcha leyes, la ejecución ha planteado dudas y polémicas. Surge además la cuestión de qué institución debe dictaminar sobre lo verdadero y lo falso. En algunos casos se defiende que sea el Gobierno o alguna ciberagencia estatal (Reino Unido); en otros, los jueces (Francia), o la policía (Italia). A veces, se sugiere un mecanismo permanente; y otras, un marco específico para periodo electoral. Las iniciativas son dispares, como refleja esta recopilación de Daniel Funke.

La norma más referenciada es la alemana, conocida como NetzDG, en vigor desde principios de 2018. Obliga a las grandes redes sociales a retirar material inconveniente en un máximo de 24 horas desde que los usuarios lo señalan y prevé multas de hasta 50 millones de euros. Se centra sobre todo en evitar el discurso del odio contra las minorías y ha provocado las quejas de diputados de la extrema derecha cuando vieron eliminados algunos de sus tuits. El Reino Unido impulsa una National Security Communications Unit enraizada en su marco de Defensa. Italia ha creado un portal en el que los usuarios pueden denunciar noticias falsas ante la Policía Postal, responsable de las telecomunicaciones. La propuesta del Gobierno francés obliga a mayor transparencia en periodo electoral, busca claridad sobre los financiadores de contenidos patrocinados y fija una vía judicial rápida, así como la posibilidad de que el Consejo Audiovisual ordene la “suspensión” de ciertas informaciones. Suecia ha planteado una “autoridad de defensa psicológica” para contrarrestar operaciones de influencia con información propia basada en hechos. Irlanda se está centrando en los bots.

En España, el anterior Gobierno relacionó inicialmente noticias y perfiles ficticios con la política de seguridad y defensa. Desde vicepresidencia se explicitó la ciberseguridad como acción concreta dentro de la Estrategia de Seguridad Nacional 2018 y se comunicó la creación de un Centro de Operaciones de Seguridad para gestionarla, con sugerencias de que ejercería tareas de vigilancia informativa. El Ministerio de Defensa anunció la constitución de un grupo de trabajo con expertos externos en el Congreso, pero no ha salido adelante. El Partido Popular presentó una proposición no de ley que apoyaba la reducción del anonimato en redes y el “sellado” de contenidos falsos, advirtiendo de amenazas externas para el Estado. Salvo Ciudadanos, toda la oposición rechazó la norma argumentando que se trataba de un intento de censura y control de la información.

Al margen de iniciativas legales, la mejor acción de los Gobiernos contra la desinformación es garantizar la existencia de una prensa realmente independiente y libre de injerencias. Es imposible desvincular la desconfianza creciente de los ciudadanos en los medios –que coadyuva a que busquen otras fuentes de información no profesionales– de la politización creciente de algunos de sus editoriales. La crisis económica ha agudizado esta tendencia, con una mayor dependencia de ayudas por parte de la prensa. Otro respaldo deseable sería el apoyo gubernamental al lanzamiento de iniciativas de alfabetización mediática que combinen el saber hacer de medios, sector educativo, empresas y organizaciones no gubernamentales.

Octava estación: Futuro

Cuando las falsedades se asocian a marcos geográficos, sociales y religiosos complejos (puede tomarse el ejemplo de países como India, Indonesia y Malasia), el resultado está siendo desestabilizador, con activistas detenidos, censuras injustificables y agudización de enfrentamientos étnicos. La falacia en red puede aumentar los desencuentros y desdibujar a ese ciudadano informado que requiere toda democracia para funcionar bien. Pero cuando nuestro usuario de metro sale a la calle en la última estación, un tanto ofuscado por la realidad gore pintada en el artículo que ha estado leyendo, comprueba que ha salido el sol. Cada vez surgen más iniciativas para combatir la mentira en línea y hay más financiación disponible para apoyarlas. En EE. UU. puede citarse la Knight Foundation y la CUNY News Integrity Initiative; en Europa, el European Journalism Centre. También Google Digital News Initiative ha financiado proyectos relacionados y Facebook lo va a comenzar a hacer.

En abril se anunció la creación de un Consejo Global para la Creación de Confianza en los Medios y la Lucha contra la Desinformación, formada por los editores de grandes medios de comunicación. Hasta el momento, las iniciativas más audaces habían procedido de pequeñas empresas y de equipos académicos. Algunas tormentas de ideas desencadenan fructíferas asociaciones transnacionales a partir de congresos específicos, como MisinfoCon. Todos los sectores están destinados a trabajar más juntos. Un ejemplo de por dónde puede ir el camino son las “redacciones pop up”, proyectos colaborativos para seguir asuntos de intensidad excepcional limitados en el tiempo. En México se ha puesto en marcha una iniciativa llamada Verificado 2018. Asocia a 60 medios, universidades y organizaciones de la sociedad civil con el objetivo de evitar la desinformación digital en las próximas elecciones generales del país.

Otras vías prometedoras de trabajo son las siguientes:

  • Creación de nuevos medios independientes o asociados a secciones de medios más asentados. En ellos, lo importante es la generación de comunidades implicadas en la denuncia de falacias y el desarrollo de herramientas de utilidad. En España, la cuenta @malditobulo tiene ya 142.000 seguidores y su página web consigue el frecuente apoyo de sus usuarios registrados. Además, genera boletines informativos semanales y mantiene un canal de aviso en Telegram. Trabaja asimismo en el desarrollo de herramientas para identificar el carácter malicioso de sitios webs. Su extensión para Chrome y Firefox avisa cuando el usuario entra en un medio con noticias falsas detectadas por el equipo.
  • Acuerdos para llegar a estándares de transparencia que permitan a los medios recuperar la confianza del usuario. Es el propósito de The Trust Project, del Markkula Center for Applied Ethics, que busca ofrecer indicadores a Facebook, Google, Bing y Twitter (colaboradores en el proyecto) para que privilegien las noticias de mayor calidad. En la misma línea trabaja Credibility Coalition, abogando por un acercamiento holístico al problema, combinando verificación digital con alfabetización mediática, nuevos modelos de negocio y participación ciudadana. Con News Guard, dos periodistas norteamericanos intentan generar medidores para catalogar los sitios en función de su nivel de riesgo y facilitar información sobre su historial y propiedad.
  • Creación de herramientas de interfaz más sencillas para que los usuarios puedan realizar análisis de automatismos en redes. Los recursos más avanzados en este campo son de pago. El Observatorio de Medios de la Universidad de Indiana ya ha presentado propuestas como BotOrNot (detección de bots) y Hoaxy (detección de pseudocampañas), si bien aún hay un largo camino por recorrer en este campo.
  • Inteligencia artificial para mejorar los caminos anteriores y los nuevos, puesto que también se sirven de ella los bulos más sofisticados. En los llamados deepfakes, la cara de una persona famosa se mezcla con un discurso ajeno o con un cuerpo que no es el suyo (para situarla, por ejemplo, en escenas pornográficas). Son imágenes cada vez más logradas en las que es difícil distinguir la verdad de la ficción. Los especialistas aseguran que en este campo seguirá siendo necesaria la evaluación humana, aunque algunos avances tecnológicos ayudarán.
  • Estudios sobre la desinformación. Ya se dispone de muchos análisis sobre la relevancia del fenómeno, pero fíjense en los que vayan precisando cuáles su verdadero impacto. Todavía se sabe muy poco de los efectos de las falacias en los ciudadanos y en los votantes. Un estudio realizado por Facebook en 2012 muestra cómo ciertos mensajes en la plataforma pueden incitar a los usuarios a votar. Otro de 2014 apunta a que las emociones se contagian en esta red social. Sin embargo, no están demostradas algunas afirmaciones que llevan tiempo circulando como verdades: que las mentiras generan cambios en intención de voto, las redes sociales provocan mayor polarización política o quienes se informan en estas plataformas están más desinformados. Es deseable que se vaya comprobando todo eso.

El ciudadano anónimo del metro comprende que en el mundo se hacen muchas cosas mal. Pero también observa que han empezado a podarse algunos jardines y concluye que difícilmente su ciudad sería mejor sin unas redes sociales o plazas en las que todos, por fin, pueden reunirse y expresarse.