¿Qué cuestiones deontológicas se deben tener presentes en la aplicación de la IA a la práctica periodística?

Close up of architect using tablet with touch screen to analyze building model for architectural development. Man engineer working with device for construction layout and design.

Escrito por Milagros Pérez Oliva

Mucho se ha escrito ya sobre el impacto que va a tener la inteligencia artificial (IA) en el ejercicio del periodismo, pero la verdad es que aún nos movemos más en el terreno de las predicciones que en el de la realidad tangible.

No cabe duda de que una tecnología tan disruptiva, aplicada al periodismo, puede tener un impacto tan profundo que acabe modificando por completo la forma de ejercer la profesión y plantear cuestiones éticas que todavía no podemos calibrar.

Como en el resto de los sectores de la creación y la cultura, su actual desarrollo implica ya importantes desafíos jurídicos y deontológicos en el ámbito de la propiedad intelectual, el derecho a la imagen, la protección de la intimidad y la salvaguarda de los datos personales. Y los nuevos desarrollos se incorporan a tal velocidad que tendremos que estar muy atentos para poder reaccionar antes de que sea demasiado tarde.

Ninguna tecnología que aporte ventajas objetivas ha dejado nunca de utilizarse. Si tenemos en cuenta que la IA son sistemas y programas capaces de desarrollar habilidades humanas como el aprendizaje y planear acciones a partir de ese aprendizaje, las ventajas son evidentes. De la misma manera que las máquinas permitieron liberar a la humanidad de buena parte del trabajo que requería esfuerzo físico, la IA permitirá liberarnos de una parte del esfuerzo intelectual. De hecho, ya lo está haciendo. La IA analítica o discriminativa ya interviene en multitud de procesos y está en la base de la mayor parte de la automatización.

Pero el gran salto vendrá con el desarrollo de la IA generativa, un tipo de inteligencia artificial que permite saltar de las capacidades cognitivas a las capacidades creativas. No se limita a reconocer, analizar o clasificar contenidos ya existentes, sino que puede producir información nueva. A partir de patrones previos, es capaz de crear, mediante redes neuronales avanzadas y mecanismos de aprendizaje profundo (deep learning), nuevos contenidos basados en el lenguaje y la imagen, y generar textos, vídeos, audios o música completamente nuevos.

El impacto de la IA generativa en el trabajo periodístico será aún mucho mayor que el que tuvo la llegada de los motores de búsqueda

Afecta, por tanto, de lleno, a lo que constituye la materia primera del trabajo periodístico. Su impacto social será mayor, en opinión de muchos expertos, que el que tuvo la imprenta. Y en el trabajo periodístico, será mucho mayor que el que tuvo la llegada de los motores de búsqueda, que simplificaron y permitieron un salto extraordinario en las tareas de documentación y búsqueda de información.

Google se creó en 1998. En un año alcanzó 3,5 millones de consultas diarias. Ahora atiende 3.500 millones cada día, pero todo esto va a saltar por los aires con los nuevos modelos de asistentes artificiales que ya están lanzando las grandes compañías. Serán agentes capaces de ejecutar tareas e interactuar con la realidad en nombre del usuario. Como se ha dicho estos días, ChatGPT es “tonto” en comparación con las nuevas versiones. ¿Qué podremos hacer con ella en las redacciones? Aún no lo sabemos, pero será una revolución.

Las aplicaciones de inteligencia artificial general, definida como un sistema autónomo capaz de superar las capacidades humanas, pueden impactar de lleno no solo en la creación y distribución de contenidos periodísticos, sino también en la recepción y el consumo de información por parte de los ciudadanos. Estamos todavía en una fase preliminar en la que el nuevo paradigma no se ha mostrado del todo, pero ya se intuye su enorme potencial.

Sin embargo, si la misión del periodismo es proveer información veraz de interés público a la sociedad para que pueda tomar decisiones pertinentes y acordes a la realidad, por mucho que se automaticen algunas partes del proceso, siempre exigirá la aplicación de criterios y metodologías de valoración profesional en interacción con la realidad dinámica y cambiante.

En periodismo, las tareas de comprobación, contextualización y validación de la información son esenciales y requieren una versatilidad que difícilmente se podrá delegar en un sistema automatizado, por mucha capacidad de aprendizaje que tenga. Decidir qué aspectos de una realidad son relevantes en un momento concreto exigirá, en último término, inteligencia y experiencia humana.

Mejora técnica y extensión de capacidades

De momento, las aplicaciones más utilizadas y las más plausibles en el corto plazo enmarcan el uso de la IA más como un instrumento de mejora técnica y extensión de las capacidades humanas aplicadas al periodismo que como una tecnología autónoma capaz de sustituir a los periodistas en la producción de contenidos relevantes y fiables.

En su faceta de mejoramiento de las capacidades, ya podemos observar el extraordinario potencial de algunas herramientas en la simplificación y automatización de ciertas tareas. Los sistemas de generación automatizada de contenidos son ya habituales en muchos medios. La traducción simultánea, la corrección y edición gramatical de textos, los sistemas de conversión de texto a voz y de voz a texto, la transcripción automatizada de entrevistas o debates, la síntesis de documentos extensos, la edición y producción de imágenes por IA generativa o los sistemas de procesamiento de datos pueden facilitar y enriquecer el trabajo periodístico como en su día lo facilitaron y enriquecieron las cámaras fotográficas, las grabadoras de voz, las calculadoras o los procesadores de texto. El requisito deontológico, en este caso, es que se usen lícitamente y tengan la adecuada supervisión humana.

Los programas basados en algoritmos permiten obtener y relacionar información en bases extensas de datos, bucear en procedimientos administrativos o judiciales y gestionar cantidades ingentes de datos estadísticos. También pueden utilizarse para convertir datos en infografías, identificar patrones ocultos, detectar tendencias en las redes sociales y, cada vez más, para conocer los perfiles de los usuarios y empaquetar las noticias o recomendar contenidos de acuerdo con sus preferencias.

Muchos medios han incorporado también programas automatizados para verter contenidos en redes y para moderar comentarios y otras formas de participación. Programas como LeoRobot, Syllabs o Data Scrive permiten elaborar noticias simples, basadas en recopilación de información reglada disponible, como previsiones meteorológicas, cotizaciones de bolsa, resultados deportivos o información electoral.

Medios como la cadena británica BBC o el diario argentino 'Clarín' han incorporado este tipo de herramientas, que también permiten hacer resúmenes cortos de las noticias a demanda.

También pueden ser útiles para hacer resúmenes breves de noticias de larga evolución a partir de textos ya publicados. O complementos informativos, como la síntesis de una sentencia judicial o la evolución de los resultados electorales de un partido. Medios como la cadena británica BBC o el diario argentino Clarín han incorporado este tipo de herramientas, que también permiten hacer resúmenes cortos de las noticias a demanda.

La inteligencia artificial permite ir más allá y utilizar también bots informativos, agentes destinados a interactuar con los lectores o usuarios para atender sus demandas específicas de información. Este tipo de herramientas permitirá dar un gran salto en la personalización de la información, lo que puede tener utilidad para los usuarios, pero también plantea ciertos problemas de orden político; entre ellos, el riesgo de generar cámaras de eco y contribuir a la polarización.

En realidad, un sistema de información personalizada, llevado al extremo, implica invertir el actual modelo generalista, en el que el medio emisor ofrece una selección jerarquizada de la información de acuerdo con sus criterios de valoración. El tipo de consumo que este modelo genera expone al usuario a toda la realidad, lo que le permite construir una visión global de lo que acontece. Un modelo fragmentado de información a demanda basado en la aplicación de algoritmos puede reproducir una dinámica de recomendaciones de efectos polarizadores, como la que opera, por ejemplo, en YouTube.

En la utilización de este tipo de programas, el mayor riesgo es el uso para fines ilegítimos de los datos personales de los usuarios y la aplicación de estrategias para tratar de influir a través de la selección de contenidos, en su opinión o su comportamiento. Y por supuesto, para la difusión, con fines partidistas, de desinformación.

Los motores de recomendación de noticias pueden ayudar a identificar qué temas despiertan más interés en la audiencia, pero eso no debe llevar a las redacciones a dimitir de su obligación de valorar la realidad y determinar qué asuntos son de interés general y, por tanto, noticiables. El periodismo ha de tener en cuenta las preferencias de su audiencia, si bien no puede renunciar a su función social de atender el derecho de los ciudadanos a recibir una información veraz sobre la realidad.

El sesgo de los algoritmos

Muchas de las tareas periodísticas ya están mediatizadas por programas basados en algoritmos. Pueden estar presentes tanto en el material de base que es objeto de información como en los procedimientos para obtenerla. En ambos casos debemos tener en cuenta que los algoritmos reproducen los sesgos, carencias y prejuicios de quienes los diseñan. Con el agravante de que no siempre son perceptibles, como se ha visto con algunos programas aplicados, por ejemplo, a determinar el riesgo de reincidencia en los presos o la criba automatizada de ayudas sociales.

Los sistemas de aprendizaje profundo (deep learning), basado en las llamadas redes neuronales, son programas que, sin apenas supervisión, pueden llegar a aprender a partir de la propia utilización y experiencia. En el caso de utilizarlos, la obligación de un periodismo responsable es prevenir los sesgos de programación y los posibles daños que los errores de los sistemas automatizados pudieran causar.

Como en cualquier otra tecnología, el riesgo no radica en la naturaleza de las herramientas, sino en el uso que se le pueda dar

Como en cualquier otra tecnología, el riesgo no radica en la naturaleza de las herramientas, sino en el uso que se le pueda dar. Una forma de prevenirlos es aplicar mecanismos de transparencia y control. La transparencia debería incluir la obligación de informar con claridad a lectores y usuarios sobre el tipo de programas que se utilizan, en qué casos están interactuando con una máquina y qué contenidos han sido elaborados de forma automatizada.

Transparencia y derechos de autor

El trabajo periodístico participa también del gran debate sobre cómo va a impactar la IA generativa en la protección de los derechos de autor y la propiedad intelectual de un producto de creación. En un doble aspecto: si las obras creadas por IA son susceptibles de algún tipo de protección y cómo se atribuye la autoría, y de qué forma deben protegerse los derechos de las obras ya existentes utilizadas por la IA para crear nuevas obras.

La mayoría de los sistemas jurídicos solo reconocen como autores a personas físicas que utilizan su capacidad intelectual y creativa para generar una obra propia. Teniendo en cuenta que la IA generativa puede cubrir cualquier ámbito de la creación, la regulación de estos aspectos sobrepasa el mundo del periodismo.

Tanto en la legislación europea que se acaba de acordar como en las legislaciones nacionales, la exigencia de transparencia por parte de los programadores ocupa un lugar central, aunque su aplicación práctica no será fácil de articular.

Intimidad y protección de datos personales

Mucho más directamente nos atañe el impacto de la IA en el derecho a la propia imagen, la intimidad y la protección de los datos personales, en un ecosistema en el que la capacidad de alteración y adulteración de imágenes y contenidos es cada vez más alta, hasta el punto de que las técnicas de suplantación de la identidad permiten alterar la imagen de personas reales para hacerles decir, con imitaciones de su voz, lo que nunca han dicho. Son programas que recopilan datos sobre los movimientos, los rasgos faciales y la voz de la persona en cuestión, para luego procesarlos mediante un algoritmo codificador de IA o una red generativa antagónica (GAN), con objeto de generar un contenido audiovisual falso de gran realismo.

El reglamento de la UE que regula la IA describe los deepfakes como “aquel contenido de audio, imagen o vídeo manipulado o de origen sintético que parece falsamente auténtico o veraz, y que crea representaciones de personas reales que parecen decir o hacer cosas que no han dicho o hecho, producidas mediante técnicas de IA como el machine learning y de aprendizaje profundo”. Hemos visto al papa Francisco con un aparatoso anorak blanco que nunca se puso, una detención de Donald Trump que nunca se produjo, al presidente Barack Obama pronunciando con su voz un discurso que en realidad era de Donald Trump y a la congresista Nancy Pelosi aparentemente borracha. Es frecuente también la distribución de imágenes de artistas famosas desnudas o en situaciones que nunca se han producido.

Las legislaciones que han abordado esta cuestión permiten la creación de simulaciones de voces e imágenes por IA al amparo de la libertad de expresión, pero establecen claros límites y obligaciones para proteger el honor. En algunos casos se exige pedir autorización a las personas objeto de tratamiento; y en los casos de utilización creativa o humorística, la obligación de advertir claramente en el acto mismo de la difusión que se trata de una imagen generada por IA. En la reciente campaña electoral catalana se utilizó este procedimiento, si bien se advertía en el propio anuncio.

La manipulación de imágenes se utiliza en muchos casos como arma de guerra

Especial atención debe prestarse a la difusión de imágenes falsas en el contexto de los conflictos bélicos. La manipulación de imágenes se utiliza en muchos casos como arma de guerra. La invasión rusa de Ucrania ha proporcionado abundantes ejemplos. En este caso, del mismo modo que la IA puede utilizarse para generar desinformación, también puede utilizarse para desenmascararla y combatirla.

Con el tiempo, deberá establecerse algún sistema de trazabilidad que permita detectar qué materiales se han utilizado para la creación de contenidos mediante inteligencia artificial. En periodismo puede ser muy útil disponer de sistemas para detectar si una información ha sufrido distorsiones en el proceso de elaboración y reproducción respecto del material original y quién ha intervenido.

Como conclusión, diría que es interesante poder utilizar las herramientas de la IA para liberar a los periodistas de tareas repetitivas de escaso valor, de manera que puedan destinar ese tiempo y esa energía a generar contenidos de calidad. Todos aquellos programas y algoritmos que permitan simplificar y facilitar el trabajo pueden tener un efecto positivo. Pero ningún programa de IA puede ir a la guerra de Ucrania, embarcarse en una patera o transmitir desde un hospital de Gaza, explicar qué ocurre y por qué.

Las aplicaciones de IA no plantean en sí mismas problemas éticos, siempre que se haga un uso legítimo de ellas y que su utilización no resulte lesiva para terceros. En general, deberíamos poder adaptar a estas técnicas las mismas reglas deontológicas que rigen ya para las tecnologías incorporadas. Será lícito utilizarlas para obtener información pública de interés para la ciudadanía, pero no para generar y difundir información manipulada destinada a engañar, para vulnerar la legalidad o para atentar contra principios fundamentales como el derecho al honor o a la intimidad.

*Imagen: DC Studio en Freepik

 

Contenido relacionado: