02/09/2019

Plataformas y redes, como vectores de distribución de bulos

Desinformación, mentiras y redes sociales: cómo se frena todo esto

Escrito por Pablo Romero

Los gigantes de internet se encuentran inmersos en una batalla contra la difusión de la desinformación, un fenómeno que preocupa cada vez más a ciudadanos y Gobiernos. El dilema al que se enfrentan plataformas y redes, como vectores de distribución de bulos e informaciones tóxicas, afecta directamente al núcleo de su negocio. ¿Deben impedir que los usuarios compartan contenidos sin parar? ¿Son las empresas responsablesde lo que la gente publica? ¿Se puede obligar a que filtren previamente los contenidos? Al fin y al cabo, ¿es conveniente dejar la decisión de decidir qué es verdad o mentiraa estas compañías multinacionales?

PABLO ROMERO*

Los esfuerzos de las redes sociales por luchar contra la desinformación se mueven en un terreno doblemente resbaladizo: por un lado, hagan lo que hagan para frenar la distribución de bulos es un ataque contra el núcleo de su negocio: que compartamos compulsivamente información para que puedan recabar nuestros datos, conocernos mejor y vender publicidad personalizada. Por otro, algo más amplio, puede menoscabar la libertad de expresión, que ha sido el motor de internet durante los últimos 30 años –hecho del que las plataformas se han aprovechado sabiamente– y, al fin y al cabo, de la democracia moderna. 

En una intensa temporada electoral como la que estamos viviendo este 2019, el debate público surgido por la pérdida de confianza hacia las redes sociales desde el escándalo de Cambridge Analytica y algunas victorias electorales de partidos radicales o candidatos populistas (EE. UU., Brasil, Italia) ha “acorralado” a los gigantes de la red, que ahora buscan maneras de “contrarrestar” determinados mensajes tóxicos, malintencionados o directamente falsos sin caer en la censura de contenidos, prohibida en España salvo por orden judicial. 

Estas compañías, conscientes de que no son ellas las que han de decidir qué se puede publicar y qué no –la temida censura–, hilan muy fino: no eliminan contenidos a no ser que incumplan sus términos de uso, como los discursos de odio o los insultos. Naturalmente, todas ellas permiten que los usuarios cuenten mentiras, bulos y desinformación. 

Detrás de este esfuerzo –principalmente de relaciones públicas– de los gigantes de la red estadounidenses, radica una razón principal: el peligro que supone para ellas que terminen siendo consideradas legalmente como editoras de contenidos, no como meras intermediarias. En tal caso, su responsabilidad en la difusión de contenidos indeseables, como los bulos, sería muchísimo mayor de la que tienen hasta ahora. Y eso sería malo, muy malo, para su negocio, cuyo motor es precisamente que los usuarios compartan información sin parar.   

Veamos los movimientos de las principales plataformas para combatir la desinformación.

Facebook e Instagram
Siendo la primera dueña de la segunda, ambas marcas mantienen una estrategia similar para intentar mitigar el impacto de la desinformación y, sobre todo, su difusión salvaje. La compañía de Mark Zuckerberg parte de una premisa: solo borra contenidos si estos violan sus condiciones de uso, especialmente en lo referente a discurso de odio, abusos o contenidos de naturaleza ilegal. Es decir, estas redes sociales no eliminan bulos, desinformación o mensajes manipulados, sino que los “penalizan”: se muestran menos en News Feed de Facebook al recibir menos puntuación, de forma que se limita su difusión y alcance.

Para detectar tanto desinformación como comportamientos sospechosos, la compañía pasa por su algoritmo de detección todo lo que cada usuario sube cada vez, que analiza cientos de miles de señales para tratar de predecir en cada mensaje si existen indicios. Una vez identificada la información “sospechosa”, bien porque la gente está reportando a Facebook que podría ser falsa o dañina, bien porque el algoritmo así lo señala, la compañía realizará un trabajo de factchecking o verificación. Y para comprobar los mensajes políticos sospechosos, ha cerrado acuerdos con 43 organizaciones de verificación certificadas e independientes que trabajan en 22 idiomas. En España son tres: Maldita, Newtral y AFP. Asimismo, cuenta con un equipo de verificación específico para elecciones con sedes en Dublín, California y Singapur.

Adicionalmente, la red social ha puesto en marcha un sistema de identificación de anuncios políticos, los cuales deben mostrar al usuario a quién está dirigido, cuánto dinero se ha invertido, cuánta gente los ha visto y quién los está pagando. Estos anuncios solo los pueden poner cuentas autenticadas de organizaciones o personas que demuestren que son del país, para limitar las injerencias externas. Un archivo público almacena toda esta información durante siete años.

Facebook e Instagram no eliminan bulos, sino que los “penalizan”

Gracias a esa información, hemos sabido, por ejemplo, el total invertido por los partidos durante la campaña electoral de las generales –cerca de 3,4 millones de euros–, quién se ha anunciado más y quién menos, cómo han utilizado la segmentación en Facebook (Ciudadanos ha sido la formación que más versiones de un mismo anuncio ha distribuido) y cuándo han invertido más. No es una forma específica de luchar contra la de-sinformación, pero sí es útil para recabar datos sobre la propaganda electoral y de-sentrañar parcialmente sus estrategias. 

WhatsApp
El problema de este servicio de mensajería, también propiedad de Facebook, es que supone un vehículo de transmisión de desinformación muy opaco: no es posible monitorizar los contenidos de los mensajes. Además, al tratarse de una plataforma para comunicarse con personas que tenemos en nuestra agenda, el nivel de confianza de los mensajes que nos llegan por esta vía tiende a ser más alto.

WhatsApp ya ha tomado algunas medidas para frenar, en general, la capacidad de cada cuenta para reenviar contenidos a personas o grupos: solo cinco veces. Igualmente, el máximo número de personas que pueden formar parte de un grupo es 256. También está implementando más medidas, como la posibilidad de que no puedan meterte en un grupo sin permiso. 

No obstante, las medidas que puede tomar WhatsApp para penalizar los bulos se reducen a una: eliminar cuentas que violan sus términos y condiciones de uso. Como no puede monitorizar el contenido de mensajes privados, la compañía se fija en determinadas señales que indican un comportamiento “anormal” de la aplicación y que analiza mediante algoritmos: desde cómo te registras hasta cuántos mensajes envías, a cuántos grupos perteneces o si incorporas una lista inusualmente larga de contactos.

WhatsApp no analiza contenidos, sino comportamientos contrarios a los términos de uso

De hecho, los cierres de cuentas de partidos políticos en la pasada campaña electoral tienen que ver con el mal uso de las mismas para el envío masivo de mensajes, bien desde dichas cuentas o bien mediante aplicaciones de terceros. Es decir, no se entra a analizar los contenidos en sí, cosa que está prohibida, sino que se analizan los comportamientos contrarios a los términos de uso del servicio.

Algunas iniciativas ajenas a esta plataforma están realizando un trabajo encomiable para frenar los bulos, especialmente abundantes en campaña electoral. Maldita y Newtral tienen habilitados sendos números de teléfono (655198538 y 682589664) para enviar cualquier mensaje sospechoso de ser un bulo; ellos lo comprueban y piden al remitente que reenvíe el desmentido por la misma vía, para intentar contrarrestar la difusión de desinformación. De esta forma, si bien podemos recibir bulos, también es posible recibir sus correspondientes desmentidos gracias a las comunidades de usuarios de estas herramientas tan útiles.

Twitter
Aunque Twitter “es muy pequeñito” (apenas cinco millones de cuentas activas en España), tiene un peso específico grande en los medios tradicionales y su eco es mayor, está amplificado. “Es como mirar por una rendija” lo que está pasando en internet en España, comentó recientemente la investigadora Mariluz Congosto, ingeniera e investigadora especializada en análisis de datos sociales. Esta experta lleva años investigando el comportamiento de los usuarios en esta red social, y sostiene que la formación de opinión en Twitter es un fenómeno a largo plazo, más de refuerzo y mantenimiento de las posturas de cada uno, y no tanto de cambio de opinión. 

“Los mensajes relativos a la polarización llevan calando desde hace mucho tiempo, se trabajan en unas ideas a largo plazo”, comentaba recientemente Congosto en una mesa redonda en la Universidad Carlos III de Madrid. Por tanto, las campañas en Twitter no parecen realmente determinantes en sí.

Las campañas en Twitter no parecen realmente determinantes en sí

Sin embargo, la compañía aporta una serie de medidas para tratar de frenar ciertos mensajes. Cuenta con un algoritmo para detectar y eliminar cuentas falsas. También busca patrones de conducta para detectar cada vez mejor mensajes contrarios a sus términos y condiciones de uso. Por último, esta red social apuesta por la transparencia en los contenidos patrocinados: los tuits de carácter político pagados, afirman, deberán estar “certificados”, esto es, sus promotores identificados para que los usuarios puedan saber su origen.

Google y YouTube
El motor de búsqueda más usado del mundo, pese a que no es una red social, sí es la “puerta de entrada a internet” para la inmensa mayoría de los ciudadanos. Si bien remarcan que no realizan tareas editoriales –pese a que el orden de aparición de una búsqueda determina casi siempre la relevancia de un contenido, sea veraz o no–, sí invierten en lo que denominan “compromiso con el periodismo de calidad”. 

Así, desde Google se dedican a formar a periodistas en el uso de herramientas de comprobación de datos; amparan iniciativas como Comprobado con dinero e infraestructuras; y también apoyan FactCheck EU, capitaneado por la Red Internacional de Comprobadores (IFCN, por sus siglas en inglés), que supone desarrollar un motor de búsqueda para que cualquier persona pueda preguntar ahí por la verificación de informaciones relacionadas con las elecciones europeas, sobre una base de datos de bulos y desinformaciones aportadas por 90 organizaciones en 30 países y diez idiomas. En España, el proyecto lo lidera Maldita junto con Newtral.

De esta manera, si alguien pregunta en Google si algo es cierto o no, y hay un trabajo de verificación previo, ese trabajo aparecerá en un lugar destacado en los resultados, porque el algoritmo así lo reconocerá.

En cuanto a YouTube, la plataforma de ubicación de vídeos más importante del mundo, su aproximación a la lucha contra la desinformación es distinta. YouTube contribuye de forma especial a la creación de lo que se conoce como “filtro burbuja”: uno consulta un vídeo y YouTube recomienda contenidos similares o infiere sus gustos para servirle lo que uno, supuestamente, quiere ver.

No obstante, además de apoyar proyectos académicos de investigación, el algoritmo tiende a destacar vídeos de medios de comunicación registrados y profesionales en informaciones de última hora, de modo que el contenido de baja calidad o que directamente propaga desinformación no se muestra en los lugares destacados en los resultados de búsqueda.

Google invierte en lo que llaman “compromiso con el periodismo de calidad”

Asimismo, trata de añadir contexto a los vídeos considerados sospechosos, con enlaces a sitios como la Enciclopedia Británica o Wikipedia, aunque esta función no se encuentra disponible en todo el mundo. Eso sí, la plataforma sostiene que no “censura” contenidos, excepto aquellos que son contrarios a las leyes de cada país. 

Campañas electorales
¿Por qué es importante insistir en la lucha contra la desinformación? Para la profesora e investigadora Loreto Corredoira, “desde la perspectiva del impacto de las nuevas tecnologías, la desinformación, los sesgos, la manipulación y el abuso de robots (bots) afectan a la forma de entender el derecho a la información en la red, y puede afectar –al menos, ya vemos que produce alteración– a la libertad y equidad en la contienda política, las nuevas formas de participación y el discurso político”.

Corredoira trabaja en un grupo de investigación sobre desinformación y procesos electorales que aglutina a juristas y periodistas. “Nos preocupa el impacto de las nuevas tecnologías en las campañas políticas”, confiesa, “no porque sean negativas, que no lo son, ni porque sean un límite, que tampoco, sino porque han aparecido nuevas formas de propaganda y segmentación política, al alcance de todos, que están replanteando la noción de ciberdemocracia”.

En este sentido, la periodista especializada en cibersociedad y seguridad Marta Peirano apunta a un fenómeno característico que producen las redes sociales: los algoritmos (especialmente en Facebook) “deciden” a quién le llegan los anuncios y la propaganda política, pero también a quién no le llega. “Ahora los partidos pueden decirle al oído a los ciudadanos, al que conocen mejor que nunca, lo que quiere oír cada uno”, comenta. Y eso genera un caldo de cultivo idóneo para terminar con el debate público, “porque ya no es necesario lanzar un mensaje único y coherente” sobre el que discutir.

Para el grupo que lidera Corredoira, radicado en la Facultad de Ciencias de la Información de la Universidad Complutense de Madrid, es preocupante la desinformación en la medida en que “cualquier proceso de confusión, de falta de información clara, afecta a las decisiones”. La profesora lo explica a partir del ejemplo de las compras online: “Muchas estafas se basan en hacer clic en un anuncio fantasma, un producto ‘milagro’, o de que nos fiemos de una cadena de mensajes en WhatsApp que anuncia grandes descuentos, o quizá en un bono-regalo con mucha letra pequeña; metemos nuestra tarjeta de crédito y hecho, hemos picado en el engaño”.

Para esta experta, nos falta “tiempo y atención para decidir, algo clave para pensar y decidir personal y libremente”. “Si de lo que se trata es de elegir el menú del día en TripAdvisor o comprar una canción en Spotify, no es algo tan grave que si lo que está en juego es un voto, una elección política o un aspecto clave en lo personal”, sentencia.

Para contrarrestar la desinformación, es necesario “un periodismo muy profesional, bien dotado en recursos humanos y técnicos”, apunta Corredoira. “Confío en sistemas antibulo y de verificación, pero pienso que hay que anticiparse a eso desde una prensa rigurosa y en manos de profesionales; deben ser los profesionales los que comprueben y contrasten antes de publicar”, explica. Y añade: “El sistema de verificación posterior genera a su vez dificultades de seguimiento y cansancio; hay hastío y desconfianza por parte de los lectores, que se ha ido regando de un claro relativismo”. 

Mientras, sigue sin haber un consenso sobre hasta qué punto la desinformación puede resultar decisiva en un proceso electoral, y es algo que resulta complicado de medir. Es significativo el ejemplo de las recientes elecciones generales en España: la gran coincidencia de los resultados con la proyección de voto que mostró el Centro de Investigaciones Sociológicas (CIS) en su último barómetro

“Veo difícil unir el voto a una acción específica en redes en Europa, a menos que estuviéramos en un país sin acceso libre a prensa, radio, televisión o internet, que afortunadamente no es el caso”, indica Corredoira, que puntualiza que algo así “se podría medir si hubiesen reclamaciones por fraude, engaño, alteración de la realidad, de los precios…”. “Un escenario siniestro que no veo ahora”, concluye.