10/07/2023

El poder disruptivo de la IA

Inteligencia artificial en periodismo: oportunidades, riesgos, incógnitas

Foto: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

Escrito por Pablo Sanguinetti

La IA puede ser una herramienta extraordinariamente útil, pero no todopoderosa; un recurso que abrirá nuevos desafíos y posibilidades en el periodismo, pero que no lo hará desaparecer. Un factor disruptivo que eliminará puestos de trabajo y creará otros. Presenta un mar de preguntas abiertas y una certeza: las cosas van a cambiar.


PABLO SANGUINETTI*

Pocos cuestionan ya el poder disruptivo de la inteligencia artificial (IA). Más difícil resulta, en cambio, vislumbrar qué rumbo tomará esa revolución, por no hablar del escenario que dejará en dos, cinco o diez años. Este artículo considera el impacto de esta tecnología en el periodismo desde diversos ángulos, partiendo siempre de la base de que lo primero que ha instalado en las redacciones es lo mismo que en el resto de los sectores: un gran interrogante.

Ese interrogante comienza con la tecnología en sí. La IA se nos presenta como una realidad compleja, rodeada de mitos y sumida en un desarrollo vertiginoso que deja sin aliento incluso a los expertos. Por ello, cualquier interesado en aplicarla debería empezar por aclarar del mejor modo posible qué es, qué puede hacer y qué no.

Concebir mejor la inteligencia artificial
Con este objetivo, desde hace años, comienzo los cursos de IA para periodistas pidiendo a los asistentes que busquen el término en Google Imágenes. Invariablemente encuentran androides antropomórficos, chips con forma de cerebro, manos de humanos tocando las de robots… El ejercicio vale para visualizar el modo tan extendido como errado en que imaginamos la IA: una suerte de robot con apariencia y capacidades humanas que interactúa físicamente con el mundo. Si queremos entender esta tecnología, explotar sus posibilidades y eludir sus riesgos, los periodistas necesitamos concebirla mejor. ¿Qué imagen alternativa a la del robot antropomórfico puede ayudarnos en esa tarea?

Rescato una ofrecida por el periodista John Keefe. “El aprendizaje automático es como tener 20 aprendices motivados”, comparó en un curso sobre IA en periodismo hace pocos años. Al igual que ese equipo de talento júnior, continuaba Keefe, la inteligencia artificial “intenta hacer lo mejor posible con aquello que le digamos. No tiene experiencia en periodismo. No tiene experiencia de ningún tipo con la realidad. Y nunca es perfecta”.

Aquí la IA deja de ser un robot que nos desplazará de un golpe y se sentará en nuestro escritorio a tipear artículos geniales para acercarse a lo que en verdad puede ofrecer: una herramienta extraordinariamente útil, pero no todopoderosa; un recurso que abrirá nuevos desafíos y oportunidades en el periodismo, pero que no lo hará desaparecer; un factor disruptivo que eliminará puestos de trabajo (en particular, los dedicados a tareas que puedan ser asumidas por “20 aprendices entusiasmados”) y creará otros (básicamente, los encargados de entender el funcionamiento de ese equipo inexperto para explotar mejor sus posibilidades, asignarle tareas a su alcance y supervisar sus resultados).

Hace falta un tercer elemento clave para completar la visión que un periodista debería tener sobre la entrada de la IA en su profesión. Junto con lo dicho sobre sus ventajas (la capacidad de exteriorizar, automatizar y, por lo tanto, masificar y acelerar tareas) y sobre sus límites (su falta de criterio periodístico y sus resultados siempre falibles, con la consecuente necesidad de orientación y supervisión humanas), queda entender el tipo de tareas que se le puede delegar. Mi definición breve sería: aquellas que no podemos “explicar”.

La gran revolución del aprendizaje automático, el paradigma que domina la IA desde los años 80, consiste en que puede asumir tareas que no se le han enseñado mediante reglas: las extrae por su cuenta a partir de ejemplos. Este desplazamiento abre las puertas a una de las revoluciones tecnológicas más importantes que haya vivido la humanidad, porque la mayoría de las tareas que realizamos no pueden definirse mediante reglas. Si quisiéramos explicar qué es un gato a una persona que no hubiese visto uno jamás (no digamos ya a una máquina), necesitaríamos elaborar una lista de rasgos que pronto se volvería inabarcable. El aprendizaje automático no los necesita. Basta con mostrarle una buena cantidad de fotos de gatos. El algoritmo identificará por su cuenta en esas fotos los patrones que definen al gato y usará esos patrones para identificarlo en nuevas fotos que no ha visto antes.

Esas tres fases -absorber gran cantidad de datos, extraer patrones en ellos y usar esos patrones para hacer predicciones- identifica la revolución del nuevo paradigma de la IA, desde un sencillo clasificador que desvía ciertos correos a la carpeta de spam hasta ChatGPT y los grandes modelos generativos que han explotado en 2022 y 2023.

El aporte al periodismo
¿Qué implica todo esto para los medios? La apertura de nuevos caminos donde hacer periodismo. En concreto, aquellos caminos que hasta ahora quedaban vedados -parafraseando una vez más a Keefe- con frases como “nunca seremos capaces de ordenar / revisar / encontrar / transformar esta cantidad de imágenes / vídeos / documentos”.

Recopilando todo lo expuesto en ejemplos concretos: “no podemos analizar miles de documentos oficiales” en busca de indicios de corrupción, pero sí relegar esta tarea a ese equipo de “20 aprendices motivados” que es la IA. “No podemos revisar toda nuestra cobertura” para categorizar las fuentes y fotos que usamos y detectar si hay sesgos de género: tarea para la IA. “No podemos identificar el contenido de miles de imágenes satelitales” en busca de indicios de robo de ganado o cultivos ilegales: tarea para la IA. “No podemos etiquetar todo nuestro archivo de fotos y vídeos” para ubicar rápidamente quién aparece en qué situación: tarea para la IA.

Lo que importa en todos estos casos y en la larga lista de usos exitosos de IA en periodismo es que:

  • Primero viene la idea, luego la tecnología. Hay una tendencia general (no solo en periodismo) a plantearse: “Tenemos que usar IA. ¿Dónde la aplicamos?”. Pero la lógica debe ser inversa: “Tenemos este proyecto. ¿Cómo lo implementamos?”. Hay que evitar la tentación de usar IA porque sí. No vale para todo y en muchos casos contamos con recursos mejores para la tarea que afrontamos. Todos los ejemplos anteriores parten de una buena idea que no puede llevarse a cabo más que con IA.
  • La IA nos ofrecerá una vía para desarrollar esa idea, pero no la idea en sí. En este punto, el olfato y la experiencia periodística siguen siendo insustituibles, al menos en la situación actual de la tecnología, y se encuentran en el origen del proyecto.
  • Si hemos dado con una buena idea que requiere IA y aplicamos esta tecnología, el resultado tendrá siempre un margen de error. Dependiendo de la tarea que estemos llevando a cabo, ese margen resultará insignificante (por ejemplo, si hemos encargado a la máquina clasificar miles de letras de canciones para ver la evolución de temas dominantes a lo largo de los años) o inaceptable (si vamos a acusar a una persona de corrupción por un algoritmo que ve ese indicio en función de los documentos que ha revisado). Y en todos los casos debería ser supervisado y mediado por un humano como punto final de todo el proceso.

El olfato y la experiencia periodística siguen siendo insustituibles

A estos buenos ejemplos de trabajos periodísticos “en cooperación” con la máquina se suma una extensa lista de posibilidades que la IA ofrece como herramienta cotidiana para liberarnos de trabajo mecánico: transcripción de audio, resumen de artículos, adaptación de un contenido a múltiples formatos, traducción a otras lenguas y, por supuesto, usos más comerciales en ámbitos como distribución, recomendación o personalización de contenidos.

La explosión generativa
Podría esperarse que ese panorama cambiara ahora de raíz debido al boom de modelos capaces de producir texto e imagen a un nivel casi humano, como los ya archiconocidos GPT-4, Dall-e 2, Midjourney y Stable Diffusion, entre muchos otros. Es posible que ocurra, pero también aquí se imponen algunas matizaciones.

La redacción automática de notas en ámbitos meramente informativos y basados en datos (informes económicos de empresas, resultados deportivos, partes meteorológicos, etc.) lleva casi una década implementada en medios como las agencias AP y Bloomberg, el diario The Washington Post o varios portales de España (gracias a la pionera startup Narrativa). No obstante, a diferencia de estos sistemas de generación de lenguaje natural, muy basados en plantillas y datos reales, los nuevos grandes modelos generativos son propensos a errar. Aportan un valor incalculable como herramientas para procesar información, no como fuente de información en sí. Sencillamente, no fueron diseñados para eso. El medio especializado en tecnología CNET lo comprobó en carne propia al comenzar a publicar historias generadas por “un sistema de IA” que resultaron notablemente deficientes y plagadas de errores.

En ese contexto, el experto Francesco Marconi considera que la aplicación más interesante de los nuevos modelos generativos en periodismo puede ser la de “versionar” contenidos: tomar una historia y convertirla a un nuevo formato. Nick Diakopoulos, profesor de la Northwestern University y autor de un libro y varios trabajos de referencia en este ámbito, ha creado un canal en Medium para recoger ejemplos de uso responsable de modelos generativos en periodismo e inspirar nuevas ideas, incluyendo resumir documentos para la audiencia, encontrar ángulos alternativos para una historia, verificar material o ilustrar contenidos.

Este último ámbito, el de la generación de imagen, parece el más propenso a una implementación inmediata y natural. Diversos medios han comenzado ya a experimentar con ilustraciones de este tipo. En una acción provocadora, el diario El Mundo se atrevió incluso a llevar en portada una foto falsa producida con un modelo generativo, en un intento de llamar la atención sobre los dilemas éticos, legales y de credibilidad que abre la nueva era.

Dos de esos dilemas desatados por los modelos generativos tocan muy de cerca a los periodistas. El primero es el de la propiedad intelectual. Las imágenes y los textos producidos con IA podrán ser nuevos, si bien se basan en patrones -como comentaba al inicio de este artículo- extraídos de toneladas de ejemplos de autores humanos. El límite entre el plagio y la inspiración se presenta difuso y exige instrumentos legales aún no desarrollados.

La generación de contenido falso y creíble de forma automática, masiva y gratuita, entre sus principales riesgos

El segundo dilema es el de la desinformación. El uso malicioso de estos modelos para generar contenido falso y creíble de forma automática, masiva y gratuita entraña uno de sus principales riesgos y el argumento más inmediato de quienes piden su regulación urgente.

A medio camino entre ambos problemas se sitúa la posibilidad de generar contenido masivo de forma automatizada bajo la apariencia de un medio. Una investigación del sitio Newsguard, especializado en analizar la credibilidad de fuentes informativas online, detectó 49 sitios de noticias generadas exclusivamente con IA en siete idiomas, español incluido. Una nueva ola de “granjas de contenido” dedicadas a atraer tráfico y obtener dinero con publicidad. La mayoría parecía limitarse a reescribir artículos de webs auténticas sin siquiera supervisión humana, como demuestra el hecho de que en varias notas se colaran en medio del texto o incluso en el titular frases típicas de ChatGPT y similares del tipo: “Como modelo de lenguaje, no puedo responder a esa pregunta”.

El impacto en la redacción
Con sus desafíos, límites, riesgos y oportunidades, la IA impactará no solo en el modo de hacer periodismo, sino también en las redacciones y el empleo. Al igual que los demás, este problema presenta un mar de preguntas abiertas y una certeza: las cosas van a cambiar.

Charlie Beckett, director de la iniciativa Journalism AI, advierte de que una parte importante del trabajo periodístico resulta mecánico y puede automatizarse: “La idea de que el periodismo es un manantial de originalidad y creatividad es una tontería absoluta”. A finales de febrero, el director ejecutivo del gigante de medios Axel Springer, Mathias Döpfner, envió una nota a sus redacciones avisando de que “la IA tiene potencial para hacer el periodismo independiente mejor que nunca… o simplemente para reemplazarlo”. Para Döpfner, urge acelerar la transición hacia contenidos exclusivos, análisis e investigación, tareas que la máquina no puede realizar. “Solo sobrevivirán los que creen el mejor contenido”, sostenía en su nota.

Pero también hay voces que pronostican una visión alternativa a la de la simple automatización. Diakopoulos considera que el valor del aporte humano en la redacción va a aumentar, no a disminuir, a medida que contemos con máquinas más potentes. En lugar de la IA tomando el control del oficio periodístico, “la realidad es que la era de los algoritmos de noticias se caracteriza más bien como una simbiosis entre humanos y máquinas”, señalaba en un curso de la Knight Foundation previo a la explosión de modelos generativos.

Se crearán puestos para perfiles híbridos que actúen como puente entre humano y máquina

En ese escenario, la IA no solo volverá innecesarios algunos puestos, sino que también creará otros: en general, perfiles híbridos que actúen como puente entre humano y máquina para sacar lo mejor de ambos componentes de la ecuación. Redacciones de medios como Washington Post, Financial Times y Bloomberg vienen incorporando perfiles nuevos para roles hasta ahora inexistentes, como “editor automatizado” o “periodista en IA”.

En otro libro de referencia sobre el tema, Marconi ha descrito en detalle la transformación, los flujos de trabajo y las posibilidades que se abren con la llegada del aprendizaje automático a la redacción. Su tesis central, en línea con Diakopoulos, es que la tecnología no automatizará, sino que “aumentará” la redacción. En su libro describe, por ejemplo, cuatro nuevos roles requeridos por la IA:

  • Editor de automatización. Un mánager con formación en periodismo y computación que supervisa procesos de automatización de contenido y coordina equipos de ingeniería con mesas de edición.
  • Periodista computacional. Periodista que usa métodos de ciencia de datos para análisis e investigaciones avanzados. Busca colaborar con reporteros que son expertos en un tema, pero que carecen de conocimiento técnico.
  • Mánager de herramientas editoriales. Coordina la implementación de nuevas herramientas y la formación a periodistas, otro desafío clave para los medios. Busca nuevas herramientas y analiza si son útiles para el medio.
  • Editor de IA ética. Responsable de la transparencia y la explicabilidad de los algoritmos, así como del uso de los datos de entrenamiento. Desarrolla métodos para reaccionar ante posibles errores.

Más recientemente, Marconi propuso un esquema sugestivo para poner en contexto el avance de la IA en los medios los últimos años (y los que vienen). “Durante la última década, hemos vivido tres fases de innovación con IA en periodismo: automatización, aumento y generación”, escribió en su cuenta de LinkedIn. “Estas tres olas sientan la base de lo que vendrá ahora: una inteligencia periodística artificial, máquinas capaces de automatizar la recolección y producción de noticias para lograr mayor imparcialidad, precisión y eficiencia”. Resulta difícil saber cuánto acertará el pronóstico de Marconi (y cualquier pronóstico en un ámbito tan disruptivo y veloz como este), pero incluso en ese escenario radical, el experto mantiene una tónica común a las reflexiones sobre este tema: el ser humano seguirá ocupando un papel clave. “El desarrollo de algoritmos editoriales requiere humanos al mando. En esta nueva realidad, la transparencia y la auditoría de los algoritmos se convertirá en una función crucial de las redacciones del futuro”.

La cuestión ética
Cualquier conversación sobre IA debería incluir una reflexión sobre su impacto ético y social. La periodista e investigadora Patricia Ventura Pocino la despliega en otro artículo de este mismo número. Pero vale la pena incluir el tema en esta mirada introductoria y panorámica con una mención a los ámbitos éticos que atañen específicamente al periodismo en su relación con la inteligencia artificial. Considero que son al menos tres.

Los riesgos éticos de la IA deberían interesar a cualquier periodista, no solo a los enfocados en este tema

En primer lugar, los riesgos éticos que plantea la IA deberían interesar a cualquier periodista, no solo a los enfocados en este tema. Se trata de un ámbito crucial de la actualidad que excede el simple desarrollo tecnológico y toca prácticamente todos los aspectos de la sociedad. La prensa tendrá que acostumbrarse a fiscalizar y discutir cuestiones como la privacidad de la información, propiedad de los datos, transparencia de los algoritmos, explicabilidad de los modelos, mecanismos de control para sus efectos no deseados, desigualdad, sesgos, representatividad, polarización, destrucción de empleo y un largo etcétera, por no hablar del ya mencionado problema de la desinformación. Esta tarea exigirá a los periodistas un acto nada sencillo: desviar la mirada del atractivo brillo de los avances técnicos y volverla hacia las personas, todas las personas: tanto las que están en el origen de la tecnología como las que acusan su impacto.

En segundo lugar, los medios como ente económico que aplican o aplicarán IA deben asumir la misma reflexión que otras empresas y decidir conscientemente los términos de esa aplicación. ¿Se usarán textos creados por un modelo generativo? ¿E imágenes? ¿En qué contexto o con qué límites? ¿Se comunicará este dato a la audiencia? Medios como DPA, Wired y BBC han publicado ya directivas respondiendo a esas preguntas y aclarando los principios con los que usarán esta tecnología. En España, el Consejo de la Información de Cataluña publicó en diciembre de 2021 el documento Algoritmos en las redacciones: Retos y recomendaciones para dotar a la inteligencia artificial de los valores éticos del periodismo, un buen punto de partida firmado por Ventura Pocino.

En tercer lugar, la cobertura de los medios sobre la IA desempeña un papel clave en el modo en que la opinión pública percibe y entiende esta disrupción técnica, con el consecuente impacto directo en su financiación, regulación e investigación. En mi libro Tecnohumanismo: por un diseño narrativo y estético de la inteligencia artificial, propongo el concepto de “diseño narrativo” como un aspecto importante en la construcción de esta tecnología y planteo las bases de un “Libro de estilo para una narrativa ética sobre la IA”. Esta herramienta se presenta como un modo práctico y pionero para ayudar a superar problemas frecuentes en la narrativa de los medios sobre la IA: su presentación antropomórfica, la confusión con el concepto de inteligencia artificial general, la exageración sobre sus posibilidades y sus riesgos, las narrativas de confrontación humano-máquina, el ocultamiento de las personas detrás de la tecnología, etc.

Como en cualquier revolución, afrontamos un tiempo de desafíos, incomodidad y decisiones difíciles. También de grandes oportunidades para descubrir nuevas formas de investigar, contar, colaborar y derribar muros internos y externos en la redacción. En juego está no solo el futuro de los medios, sino también el propio proyecto de la IA. El periodismo desempeña un papel clave en el desarrollo de la tecnología y domina herramientas decisivas para ayudar a que siga un rumbo ético y alineado con nuestros valores. También en tiempos de IA, el periodismo importa. Eso también es una certeza.

 

*Foto: Alina Constantin / Better Images of AI / Handmade A.I / CC-BY 4.0

 

Contenidos relacionados: