10/07/2023

Comprensión del papel de la IA

Ética e inteligencia artificial: herramientas para gobernar a los algoritmos desde el periodismo

Foto: Alan Warburton

Escrito por Patricia Ventura Pocino

La profesión periodística debe redefinirse para responder a la doble crisis ontológica y económica que atraviesa. Ello ha de pasar necesariamente por comprender su posición ante el papel de la inteligencia artificial en las distintas esferas de nuestras sociedades, especialmente ante la mediación algorítmica comercial en la comunicación, puesto que los algoritmos influyen en nuestra visión del mundo y, en consecuencia, en nuestro comportamiento y nuestra cultura.


PATRICIA VENTURA POCINO*

La penetración de la inteligencia artificial (IA) en nuestra sociedad interpela al periodismo de distintas formas, y todas pasan por comprender esta tecnología, tanto su potencial para mejorar la vida de las personas como los retos que implica, porque el gobierno ejemplar de los sistemas algorítmicos se basa en la justa ponderación entre ventajas y riesgos a la hora de decidir sus usos.

No solo se trata de hacer una asimilación estratégica y responsable en las redacciones: el periodismo también deberá ser capaz de informar con rigor sobre IA, así como vigilar sus usos en otros ámbitos, en especial en aquellos en los que las decisiones automatizadas tienen más potencial de impacto en la vida de las personas. Estas tres líneas de acción están conectadas por la necesidad de comprender la IA y, además, son interdependientes, ya que disponer de legitimidad para informar con rigor sobre tecnologías algorítmicas y vigilar sus usos pasa por llevar a cabo una apropiación responsable de las mismas.

Como primer paso y con objeto de disponer de la necesaria visión para abordar los tres ejes de acción, se trata de comprender conceptos básicos y principales dilemas éticos en torno a las aplicaciones de las tecnologías exponenciales. El uso de algoritmos no es nuevo, como tampoco lo son las reflexiones filosóficas y éticas relacionadas con sus aplicaciones. Lo que hoy ha cambiado es que, si bien antes los usábamos para llevar a cabo tareas computables (como  generar extractos bancarios u ordenar listados bajo criterios de “solución correcta”), hoy hemos pasado a preguntarles cosas como, por ejemplo, quién es el candidato ideal para una oferta de trabajo (aplicados a la selección de personal), qué persona puede ser merecedora de una ayuda social (en la gestión de recursos públicos) o cuál es la mejor respuesta a cualquier pregunta (en el caso de un buscador o una IA generativa). La Policía los usa incluso para determinar qué riesgo de ser agredida tiene una víctima de violencia de género.

Así pues, la diferencia entre antes y ahora es que hemos pasado a usar la IA para intervenir en decisiones que no son calculables de una forma evidente. Muchas de ellas, además, tienen un enorme potencial de impacto en la vida de las personas, por lo que tiene todo el sentido que el periodismo, atendiendo a su tradición vigilante del poder, audite sus aplicaciones desde las distintas especialidades (no solo desde la sección de tecnología).

La IA ha penetrado en prácticamente todas las esferas de nuestra sociedad y dispone asimismo de un enorme potencial para mejorar la vida de las personas. Están de sobra demostradas las ventajas que supone en ámbitos como la salud, por ejemplo. Incluso se han dado casos en los que, gracias a la IA, se han apreciado aspectos clave para el diagnóstico médico que de otra forma no se hubieran considerado.

Sin embargo, la búsqueda de la productividad y la eficiencia que caracteriza a nuestras sociedades de consumo, unida a un exceso de confianza en la supuesta objetividad de las máquinas, hace que se pongan en el mercado sistemas que no están maduros y causan problemas. Un ejemplo fue el caso del algoritmo de selección de personal de Amazon, que para determinadas posiciones descartaba todos los currículos enviados por mujeres. Otro problema conocido de sesgos discriminatorios algorítmicos lo causó la herramienta de la Policía de Nueva York, que otorgaba un riesgo de reincidencia más alto a los detenidos negros.

Así, uno de los principales aspectos éticos a los que desde el periodismo debemos prestar atención son los usos irresponsables de sistemas ineficaces que pueden contribuir a amplificar e incluso a institucionalizar prejuicios y, por lo tanto, a mantener y a aumentar las desigualdades.

La IA en la comunicación y la cultura
Una de las esferas que ha sufrido mayor impacto de la inteligencia artificial es, sin duda, la de la comunicación. La llegada de las plataformas de mediación algorítmica durante la primera década del nuevo milenio causó un cambio radical en las formas de consumo cultural para dar lugar a lo que algunos han denominado una nueva “cultura algorítmica”.

La distribución computacional de redes sociales y buscadores provocó que el periodismo perdiera su condición de gatekeeper para quedar relegado a mero productor de contenido a disposición de los algoritmos de filtrado y jerarquización de las grandes plataformas, las cuales -debido, en parte, a esa producción de información- se benefician de la inversión en publicidad que ha ido perdiendo el sector de los medios de comunicación, hoy sumido en una crisis económica y también ontológica.

Cuando estas plataformas emergieron, muchas vimos su llegada con optimismo. Eran más herramientas para crear contenidos y más canales para que estos fueran distribuidos. Entonces todo hacía augurar que más voces serían escuchadas y en consecuencia, gracias a una mayor diversidad de emisores, mejoraría la salud de nuestras democracias. Y en parte así ha sido. A las plataformas de mediación algorítmica se les atribuye haber tenido un rol fundamental en movimientos ciudadanos de gran trascendencia, como la Primavera Árabe, el 15M en España, el #MeToo y otras iniciativas que han visibilizado importantes causas sociales. Las plataformas también han contribuido a que cualquiera tenga la oportunidad de convertirse en un medio de comunicación; de que pequeños negocios tengan más visibilidad y, por lo tanto, más oportunidades de prosperar, o incluso de conectar a personas en grupos nicho y compartir inquietudes relacionadas con enfermedades minoritarias y otro tipo de cuestiones para las que antes era más difícil organizarse.

Sin embargo, a medida que ha ido pasando el tiempo, hemos aprendido que no todo lo que las plataformas traían era positivo. Al contrario de lo que podía parecer al principio, los algoritmos comerciales tienden a situarnos en mayor o menor medida en burbujas autorreferenciales en las que vemos más sobre lo que más consumimos, explotando nuestro sesgo de confirmación. Es decir, nuestra vulnerabilidad humana nos impulsa, de forma inconsciente, a consumir contenido que reafirma nuestras propias creencias.

También hemos podido comprobar que la desinformación prolifera sin control por nuestro ecosistema informativo digital como consecuencia, en parte, de la lógica del engagement que visibiliza el contenido hiperbólico, de la cual se aprovechan los actores interesados en intoxicar la esfera pública. Esta optimización para el engagement que solo obedece a la finalidad de captar nuestra atención usa técnicas de diseño persuasivo, las cuales generan adicción y contribuyen a agravar problemas mentales latentes. Además, este modelo de negocio se basa en una lógica extractivista de los datos personales que erosiona nuestra privacidad y, por lo tanto, amenaza nuestras libertades.

Es difícil decir si hoy estamos más en burbujas de información que antes, cuando leíamos el diario que mejor sintonizaba con nuestra visión del mundo. Ni siquiera resulta sencillo determinar si existe más desinformación ahora que antes. De lo que estamos convencidas es de que no todos los efectos del dominio de la mediación algorítmica comercial han sido positivos.

En este contexto, el periodismo debe redefinirse para responder a esta doble crisis ontológica y económica que atraviesa. Ello ha de pasar necesariamente por comprender su posición ante el papel de la IA en las distintas esferas de nuestras sociedades, especialmente ante la mediación algorítmica comercial en la comunicación y la cultura, puesto que los algoritmos influyen en nuestra visión del mundo y, en consecuencia, en nuestro comportamiento y nuestra cultura.

El periodismo de esta era debe tener un papel fundamental en el liderazgo cultural de la innovación tecnológica

El periodismo de esta nueva era debe tener un papel fundamental en el liderazgo cultural de la innovación tecnológica: ser capaz de contribuir a la construcción de una sociedad crítica en condiciones de cuestionar los usos de la tecnología con vistas al bien común. Una ciudadanía capaz de contestar y reclamar responsabilidades si es necesario a quien quiera que se encuentre tras los sistemas y pedir medidas políticas de protección de sus libertades.

Algoritmos en las redacciones
Otra de las formas en las que el periodismo puede ganar confianza es a través del propio uso de la IA que se integra a gran velocidad en las rutinas de los medios de comunicación. Hoy, en las redacciones, preguntamos a los algoritmos cosas como: ¿qué es noticiable? (con la ayuda de herramientas que mandan alertas sobre posibles temas susceptibles de convertirse en noticia que identifican por la red); ¿qué forma debe tener? (gracias a aplicaciones que detectan los patrones de los contenidos que mejores indicadores logran); ¿qué título elegir? (a través de los test A/B, que consisten en lanzar el mismo contenido con títulos distintos para computar cuál de ellos consigue más visitas), o ¿qué contenido destacar? (con la ayuda de los módulos de recomendación y la analítica que nos permite conocer los intereses de los usuarios). Todas estas preguntas forman parte del núcleo de la función editorial del periodismo; así pues, deben ser las profesionales de la información quienes acaben aplicando el criterio a la hora de tomar decisiones finales.

La IA está presente en todas las fases de la cadena de valor del producto informativo: desde la recopilación de información, pasando por la fase de generación del contenido, hasta la distribución. En la primera fase encontramos herramientas del tipo que sugieren temas noticiables o aplicaciones que rastrean bases documentales para identificar contenido que luego servirá para generar información. En la segunda, la fase de producción, está presente a través de aplicaciones para realizar transcripciones de audio a texto o a la inversa y otros cambios de formato, como de texto a vídeo, entre otros. También son conocidas las herramientas para generar piezas de texto automatizadas. Últimamente se empieza a extender el uso de la IA generativa en esta fase, tanto de texto como de imágenes. En la tercera etapa, la de distribución, la IA se usa sobre todo para recomendar contenidos en función de los patrones de conducta del usuario del medio, así como en aplicaciones específicas de recomendación orientadas a estimular las suscripciones.

Los profesionales de la información ven la llegada de esta nueva tecnología con una mezcla de recelo combinado con expectativas de mejora, según un informe del Consell de la Informació de Cataluña. Estas nuevas herramientas traen consigo prometedores incrementos de la productividad, lo cual, en principio, es buena noticia para organizaciones en crisis. Las oportunidades que el sector detecta en la adopción de la IA tienen que ver con esta mejora de la eficiencia que traerá la optimización de los procesos, o con los beneficios que brinda conocer mejor a las audiencias, lo que conlleva la posibilidad de poderles ofrecer contenido más relevante y, por ende, mejorar los indicadores de éxito y el negocio. El periodismo valora también la capacidad de algunos sistemas para identificar historias entre mucha cantidad de datos (por ejemplo, rastreado automatizado de las redes sociales) o disponer de la posibilidad de automatizar tareas repetitivas o laboriosas, como las transcripciones de audio o vídeo a texto.

En momentos de cambio tecnológico se evidencia la falta de inversión que arrastra el sector

En cuanto a los retos, una de las inquietudes más extendidas tiene que ver con acertar entre los distintos tipos de aplicaciones de IA disponibles, es decir, que el esfuerzo que requiere adquirir las herramientas revierta en un mejor producto. Otro de los desafíos en el proceso de adopción tiene que ver con las posibles fricciones en la configuración de los equipos, cada vez más híbridos, compuestos tanto por periodistas como por perfiles más técnicos. Finalmente, en momentos de cambio tecnológico, precisamente en los que la I+D se hace más necesaria, se evidencia la falta de inversión que arrastra el sector.

Además de los retos organizativos, los profesionales también identifican preocupaciones desde el punto de vista de la ética. Según una encuesta que se distribuyó a periodistas de todo el país, al sector le preocupa principalmente que se produzca una eventual pérdida de calidad del producto informativo debida a un abuso de la automatización. Los sesgos algorítmicos, generar desinformación desde los propios medios o la deshumanización del contenido son otras de las cuestiones que inquietan a la profesión. Otro de los aspectos que genera un gran debate está relacionado con que se acaben personalizando en exceso los contenidos, es decir, que los medios deriven en la creación de servicios a medida basados en el comportamiento del usuario como portadas, aplicaciones o boletines personalizados. Si admitimos que una de las funciones que definen al periodismo es proporcionar visión comunitaria sobre los temas de interés público, un exceso de personalización colisionaría con esa función democrática y, por lo tanto, acabaría erosionando la misma razón de ser de la profesión periodística. Además, llevada al extremo, la personalización podría contribuir a generar cámaras de eco, polarización y fractura social.

Para gobernar esta tecnología en los propios medios de comunicación, los valores éticos del periodismo resultan la mejor referencia y minimizar así los riesgos que una aplicación sin criterio puede entrañar. Por ejemplo, la automatización del contenido de texto implica la posibilidad de errores y sesgos en el producto final. En este caso, los principios éticos de verdad y responsabilidad se deben imponer a la producción desmedida de contenido sin supervisión.

Para abordar estos retos, el citado informe del Consell de la Informació de Cataluña, pionero a nivel mundial, elaboró un decálogo de recomendaciones para hacer una apropiación responsable de la inteligencia artificial, que se concretó en los siguientes puntos:

  • Calidad de los datos y gestión responsable: velar por el origen y la diversidad de los datos y mantener una vigilancia constante sobre su representatividad.

Los algoritmos funcionan con datos. Del mismo modo que verificamos las fuentes, hay que verificar los datos (origen, diversidad...), concediendo una especial atención a su representatividad. Hay que cuestionar las bases de datos: ¿es suficientemente representativa del grupo al que alude?, ¿es lo bastante completa para informar de un tema concreto? Un contenido sesgado tiene el potencial de incidir en la calidad de la información que se difunde y de afectar al derecho a la información.

La falta de respeto a cualquier grupo no es tampoco aceptable aunque surja de manera automatizada

Tenemos que tratar a todos los grupos con respeto también a través de la gestión de los datos. Sexismo, racismo, etc. no son tampoco aceptables si surgen de manera automatizada.

Hay que monitorizar todos los procesos, desde el diseño de los sistemas de elaboración de la información hasta los destinados a su difusión. Esta supervisión debería incluir la realización de las pruebas previas al lanzamiento de nuevas líneas de productos informativos.

Ya desde el diseño de los sistemas, hay que hacerse preguntas de carácter ético: ¿para qué objetivos optimizamos el sistema?, ¿solo para conseguir clics o también va implícita la pretensión de hacer buen periodismo? La voluntad de conseguir buenos resultados comerciales no debería excluir el mantenimiento de unos criterios deontológicos, sino que, al contrario, deberían integrarse ambos objetivos.

  • Transparencia y rendición de cuentas: hasta donde sea posible, dar a conocer a los usuarios la existencia de los algoritmos y las características básicas de su funcionamiento.

Aunque haya supervisión, los sistemas automatizados pueden cometer errores y reproducir sesgos. La transparencia es la protección más eficiente contra estos potenciales errores. Algunas de las principales organizaciones del sector periodístico han optado por la transparencia como una vía para mitigar la pérdida de credibilidad de los medios y potenciar la confianza de la ciudadanía.

Los usuarios deberían tener al menos claro cuál es el grado de automatización presente cuando consumen un contenido, de modo que si hallan en él inexactitudes puedan saber a qué atribuirlas y también cómo pueden argumentar sus reclamaciones. Esta transparencia es un aspecto fundamental de la accountability o rendición de cuentas, un concepto cada vez más apreciado en la vida pública en general y en el mundo periodístico en particular.

  • Gestión responsable de los datos y privacidad: recoger únicamente los datos personales necesarios, convertirlos en anónimos si no son relevantes y preservarlos de un mal uso por parte de terceros.

La transparencia de los datos reclamada en el punto anterior obviamente ha de ser compatible con la necesaria preservación de la privacidad, especialmente en todo aquello que está regulado al respecto. Hay que tener presentes tanto las exhortaciones deontológicas relativas al derecho a la privacidad como también la legalidad vigente, expresada sobre todo en el Reglamento General de Protección de Datos, adoptado por la Unión Europea para preservar la protección de las personas físicas en lo que se refiere a la circulación de sus datos personales.

A menudo las personas facilitan datos, pero tal vez no sean conscientes de que pueden llegar a manos de un medio de comunicación. En este sentido, también hay que tomar todas las precauciones necesarias para proteger la intimidad de las personas, como, por ejemplo, convertirlas en anónimas, almacenar de manera segura las bases de datos y limitar su uso y conservación.

  • Personalizaciones y recomendaciones: evitar que el uso de algoritmos para hacer información “a medida” contribuya a socavar el pluralismo o perjudique a personas vulnerables.

Los algoritmos se utilizan para proporcionar a los usuarios dos tipos de servicios que pueden ser muy útiles, pero que conllevan peligros evidentes de empobrecimiento informativo: por un lado, la personalización de la información en función de unos supuestos intereses específicos de cada usuario y, por otro, las recomendaciones sobre productos o servicios que se amolden a sus preferencias. En ambos casos se corre el riesgo de que las propuestas que se facilitan puedan redundar en una falta de perspectiva general o en una pérdida de posibilidades al quedar eclipsadas por las propuestas realizadas por el algoritmo. Es lo que se ha dado en llamar las “filter bubles”, una especie de encapsulación mental de la que sería objeto el ciudadano, con la consiguiente merma de la autonomía personal y, peor aún, del pluralismo.

Es importante, pues, que a la hora de diseñar servicios de personalización o de recomendación se procure que el automatismo no esconda o postergue la información de mayor interés público.

Hay que prestar especial atención al hecho de que estos sistemas tienen el potencial de manipular el comportamiento, entre otros efectos, porque realimentan lo que se conoce como “sesgo de confirmación” (reafirmación en los puntos de vista propios) o por otros factores que tienen que ver con las técnicas de diseño persuasivo. Esto puede afectar más a determinadas personas vulnerables desde el punto de vista psicológico, así como a los menores de edad.

  • Poner en valor el factor humano: no hay que olvidar que es el profesional quien tiene el talante ético que no tiene la máquina.

De momento, y mientras no se demuestre lo contrario, las personas tienen unas capacidades superiores a las de las máquinas, al menos en todo aquello que afecta a las decisiones con carga ética. Al mismo tiempo que las tareas se automatizan, hay que promover y potenciar las capacidades humanas de los equipos. Si se libera el tiempo que se ahorra con la automatización, puede parecer una buena idea invertirlo en intentar que los periodistas hagan aquello que mejor deberían saber hacer y que aporta más calidad: interactuar con las fuentes, observar, investigar, poner en contexto, dar un enfoque humano a los contenidos, usar un estilo atractivo, aplicar la creatividad… La tecnología, por sí misma, no tiene criterio ético. Solo el periodista puede imprimir al producto los principios del periodismo. Por eso es también importante que sea capaz de supervisar la tecnología, para lo cual necesita capacitación.

Solo el periodista, no la máquina, puede imprimir al producto los principios éticos del periodismo

  • Formación y promoción de la interdisciplinariedad en los equipos: adquirir los grados de capacitación suficiente para aunar el conocimiento de la técnica y la aplicación de los principios éticos.

Los periodistas necesitan formación técnica para no perder el control de los procesos y ser conscientes de los riesgos que conllevan. Los profesionales de la información deberían estar en condiciones de auditar algoritmos propios y ajenos, y participar en las decisiones que tienen que ver con la automatización y la manera de ponerla al servicio de la misión del periodismo. Para esto no hace falta que los periodistas aprendan a programar, pero sí es necesario que conozcan cuestiones que estén a su alcance, como el lenguaje computacional y algunos conceptos básicos. Deben entender que se pueden ajustar los parámetros de un algoritmo y ver cómo cambian los resultados.

Los ingenieros suelen estar entrenados para conseguir performance (resultados basados en métricas comerciales). Es deseable que también reciban formación en los valores que rigen el periodismo, los cuales también se pueden transformar en métricas estratégicas de tipo más cualitativo.

Para dotar a la IA de valores hace falta formación sobre sus riesgos éticos tanto para ingenieros como para periodistas. Es recomendable promover la interdisciplinariedad en los equipos y buscar así la complementariedad de las formas de pensar, utilizando proyectos reales de I+D para impartir formación, entre otras cuestiones.

  • I+D y proactividad: promover la investigación encaminada a explorar la convergencia entre la eficacia técnica de los sistemas y los valores de un periodismo ético.

Es recomendable que las empresas promuevan o se acojan a proyectos de I+D que busquen cómo la IA puede ayudar a reforzar los principios del periodismo. Por ejemplo, es muy importante investigar aplicaciones como las herramientas de verificación u otras para detectar los sesgos propios.

En la medida de lo posible, hay que evitar servicios de terceros o recurrir a la nube si el medio desconoce qué uso se hará de los datos que traspase. En cualquier caso, si hay que contar con herramientas externas, en general es preferible no esperar a que lleguen ofertas, sino que siempre será mejor actuar de forma proactiva, buscando acuerdos para participar en la creación de estas herramientas, de modo que se puedan adaptar a la misión y los valores del medio y este pueda medir su eficacia con sus propios indicadores. Para conseguirlo puede resultar adecuado plantearse la colaboración con otros medios con los mismos problemas y también con investigadores especializados o con universidades.

El periodismo ante la IA
En conclusión, la posición del periodismo frente al escenario descrito pasa por tres acciones principales. De entrada será primordial que las profesionales se formen para alcanzar suficientes conocimientos sobre estas tecnologías y sus riesgos desde un punto de vista ético, para así poder interpretar y transmitir la información con rigor. En segundo lugar, deberá capacitarse para vigilar sus usos en la toma de decisiones mediante técnicas de auditoría algorítmica, especialmente aquellas que se apliquen en ámbitos como la justicia, la salud, la educación y otras que puedan tener efectos importantes en la vida de las personas.

Por último, la profesión periodística necesitará utilizar esta misma tecnología que deberá comunicar y vigilar; y para ser coherente, deberá hacerlo de forma responsable. Como hemos visto, con objeto de poder utilizar la IA con criterio, convendrá recurrir a la tradición eticista del periodismo, ya que los códigos deontológicos que nacen de los grandes principios de la profesión periodística -verdad, responsabilidad, justicia y libertad- resultan la forma más adecuada para concebir una ética general de la comunicación. Asimismo, habrá que tener en cuenta los principios de la tecnoética, que se integran en los valores periodísticos de la forma que hemos detallado antes. Estos principios tecnoéticos pueden resumirse en los que propone la Comisión Europea: agencia humana y supervisión, robustez técnica y seguridad, privacidad y gobierno de datos, transparencia, diversidad, no discriminación y equidad, bienestar social y medioambiental y rendición de cuentas.

Los potenciales riesgos son evitables a través de una gestión adecuada que pase por valorar los beneficios de la tecnología, al tiempo que se hace una apropiación regida por los valores del periodismo. Con la llegada de la IA, los principios de privacidad y transparencia, ya presentes en el código deontológico, se resignifican y adquieren relevancia: la privacidad, porque hoy en las redacciones, como en los demás sectores digitalizados, se trabaja con muchos más datos personales; la transparencia, por tratarse de un valor principal que está presente tanto en la tradición del periodismo como en la tecnoética y resulta fundamental en ambos casos para promover la confianza de sus comunidades.

Los medios del futuro pueden ganar centralidad generando confianza, puesto que cualquier organización -y aún más aquellas que realizan una función social- tiene en la confianza de la ciudadanía su base para avanzar y prosperar. A medida que exista más dificultad para distinguir verdad y mentira se hará más necesario contar con este interlocutor confiable. Ante la hiperabundancia de información en un ecosistema informativo inundado de contenido, vamos a necesitar un agente que dote de sentido. Pensamos que es el periodismo el que debe asumir ese rol. ¿Aprovechará la oportunidad?


* Foto: Alan Warburton

Contenidos relacionados: