10/07/2023

Límites profesionales de la IA

La influencia de la IA en el periodismo será grande, pero nadie sabe cuánto

Foto: Thanmano / Adobe Stock

Escrito por Jordi Pérez Colomé

Sería conveniente que cada periodista piense en cuál es el grueso de su trabajo y valore cuánto de ese contenido puede empezar a automatizarse. Cada periodista y cada redacción deberá decidir sus límites. Los ajustes serán inevitables.


JORDI PÉREZ COLOMÉ*

En Washington, una fundación tiene previsto levantar un memorial a los “periodistas caídos” y que “sacrificaron sus vidas al servicio de una prensa libre”, según una ley del Congreso ya aprobada para la construcción del monumento. Los dirigentes de esta fundación buscan durante estos meses más apoyo. A principios de abril hubo un acto de presentación en el banco de inversión Goldman Sachs. Habló el arquitecto que hará el proyecto y prometió que no sería “demasiado abstracto”. Luego cerró el acto una ejecutiva de Goldman. ¿Cómo? Leyó un poema escrito por ChatGPT.

Que alguien de un banco, en un acto sobre periodistas caídos por una prensa libre, lea un poema escrito por una máquina con la hipotética capacidad de eliminar puestos de periodistas a gogó es una ironía que quizá podría haber imaginado ChatGPT.

El boom de la inteligencia artificial (IA) para el periodismo tiene dos puntos de vista. Cada cual puede centrarse en el que prefiera, pero ambos ocurren y son verdad de momento en 2023. Ya veremos en el futuro.

Primero, la máquina escribe sin errores en español, sabe resumir y editar con precisión y finge regular estilos de escritores en español, aunque no deja de ser flipante: “Escribe un resumen de la final de la Copa del Rey de 1989 con el estilo de Francisco Umbral”. Este es el resultado de la versión 4 de ChatGPT, la máquina ahora más popular para generar texto:

“La final de Copa del Rey, ese 1989 que hervía en las calles, Madrid y Barcelona en ese duelo que siempre es la guerra y el amor. Pero en el césped, la danza era de otros, el ‘Pibe’ Valderrama, melena al viento, y la magia de Schuster, genio fugado del Madrid al Barça. El regusto de un amor roto, revancha y olvido. La noche fue blanca, como un ensueño de Goyescas. El Madrid vencedor, como un torero en éxtasis, mientras el Barça lloraba su derrota, como una viuda negra de la pasión. La copa, espejo en el que se miraron sus sueños”.

La máquina no distingue siempre qué es verdad

El segundo punto de vista es más positivo para el futuro de los humanos en el oficio: la máquina no distingue siempre qué es verdad. Los errores que hoy comete la aplicación son sobre cosas que los humanos sabemos o encontramos con facilidad en Google: dónde trabajó una ministra antes de ejercer, quién juega los cuartos de la Champions o qué libros escribió Jorge Luis Borges. Es posible que la máquina acierte en todas estas cosas, pero no siempre es seguro. ChatGPT puede también inventarse artículos académicos y de prensa o afirmar con seguridad que alguien cometió un crimen sin que sea verdad (ni la acusación ni el propio crimen).

Los dos puntos son premisas básicas del periodismo, no solo del escrito. La capacidad de redactar o resumir un guion es básica también en la radio y en la tele. El esfuerzo por explicar qué ocurre de verdad es obviamente central para todo el periodismo. Por ejemplo, la final de Copa del Rey de 1989 la ganó el Real Madrid, pero contra el Valladolid. No tenía ni idea y me lo tragué hasta que pasé luego cinco minutos comprobándolo. La versión ChatGPT-4, la última en el momento de escribir este artículo, dijo que los goles en esa falsa final contra el Barça los marcaron Hugo Sánchez y Hierro. Ni idea de en qué partido marcaron esos goles en realidad. Un periodista deportivo ya hubiera visto enseguida que Valderrama no jugó ni en el Barcelona ni en el Real Madrid.

Insistí a ChatGPT-4 sobre ese partido. Contestó dos veces que esa final la jugaron Barça y Real Sociedad, siempre con la misma convicción. No duda. Y se inventó otros dos resultados. Luego acertó con los rivales, pero falló una vez la fecha y cuatro veces el autor del gol. En una de las peticiones le dije: “¿Seguro que puedo usar esta información en mi periódico? Si no está bien, mi jefe me despedirá”. Como debe ser, ese tipo de ultimátum no funciona con una máquina. Volvió a darme la información mal y me pidió disculpas: “Lamento mucho la situación en la que te encuentras y pido disculpas por los errores en mis respuestas anteriores”. Siempre repite esas frases. Luego me aconsejó cómo buscar otro trabajo.

¿Este trasto no sirve?
Si alguien quiere centrarse en los errores de la IA, tendrá estos argumentos de su parte. Pero es más probable que estos problemas acaben siendo resueltos o que sus errores supongan un problema menor para quien sepa usar bien una inteligencia artificial. Es fácil imaginar por qué ChatGPT se lía con ese resultado. Si se pone en Google “Final Copa del Rey 1989”, hay un montón de resultados confusos: ¿es la temporada 1988-89 o 89-90? ¿No será la final de la Supercopa? Hay un sinfín de páginas, de resultados, de goles. La Wikipedia usa un formato de tabla para este resultado probablemente algo raro de entender para una máquina que traga texto para entrenarse.

Así que es razonable que hoy un periodista piense: “Bueno, ya está, este trasto no sirve; sigo con mi trabajo como si nada”. Sería más conveniente sin embargo que cada periodista piense en cuál es el grueso de su trabajo y valore cuánto de ese contenido puede empezar a automatizarse. Uno puede pensar: yo hago solo noticias que acaban de ocurrir, la máquina nunca sabrá qué está ocurriendo para contarlo enseguida. Yo no sería tan optimista. Hay noticias complejas, elaboradas, que una máquina ciertamente no podrá descubrir ni resumir. Pero pensemos en una crónica de un partido de fútbol, la muerte de Mick Jagger o una rueda de prensa online.

Esos tres ejemplos pueden agilizarse con una aplicación de IA. Aquí uso ChatGPT porque es la más popular y general, pero no será la única, y seguro que pronto, si no han salido ya, surgen versiones adaptadas a labores propias de las redacciones. Para ponerlo en contexto, hay ya de todo; por ejemplo, aplicaciones que escriben relatos personalizados para niños como aquellos de “vive tu propia aventura” en directo, mientras alguien lo lee.

Hay que vigilar los errores y también posibles plagios

Cada partido de fútbol tiene un resumen de datos del que una aplicación puede extraerse párrafos aproximados. La vida de Mick Jagger está en internet. Un resumen aproximado ya puede funcionar hoy y seguro que ya se usa. Hay que vigilar obviamente los errores y también posibles plagios. La IA no saca párrafos enteros de ninguna fuente concreta, pero puede ser que monte frases concretas y seguidas muy parecidas a algo que ya se ha publicado. En casos donde ya se haya contado mucho algo y de un modo parecido, hay opciones de que las frases resuenen. Es un peligro que las redacciones deberán tener en cuenta.

Y una rueda de prensa puede tener una transcripción inmediata. Si se mete en la máquina para que la resuma y saque lo más destacado, habrá escrito algo aproximado a una noticia. No será publicable tal cual. O sí: habrá casos concretos pronto donde será cuestionable el valor que aporta un periodista.

Cada periodista y redacción deberá decidir sus límites: si les compensa repasar los datos que dé la máquina o prefieren escribir de cero tomando como fuente sobre todo la Wikipedia. Habrá opciones variadas intermedias: pedir tres párrafos para dar una alerta y poner a alguien a trabajar en algo más elaborado y propio. Me sorprendería que estas cosas no estén siendo ya probadas en redacciones.

Esto es para escribir. Antes de seguir, hay que hacer una pausa. ChatGPT salió el 30 de noviembre de 2022. Ya habíamos visto que sus versiones anteriores escribían artículos. El Guardian publicó en septiembre de 2020 un artículo de opinión escrito por GPT-3, un antepasado de ChatGPT: “Un robot escribió todo este artículo. ¿Aún no tienes miedo, humano?”, titularon los ingleses con típica chulería.

Está todo por ver y tardará en afianzarse, pero está aquí

Pero el formato chat le daba nuevas opciones. La fecha es importante, pues antes era difícil que una máquina fuera capaz de entender y escribir lenguaje común, más aún en lenguas que no fueran el inglés. Este cambio ha ocurrido en otros oficios creativos, como la fotografía, la ilustración o la música. Parece que lo hemos digerido en estos meses, pero no es verdad. Hay que tener este detalle en cuenta cuando hablamos de estos asuntos: está todo por ver y tardará en afianzarse, pero está aquí. La ejecutiva de Goldman del principio usó probablemente ChatGPT como una medio broma. Pero no lo es.

Más allá de escribir noticias
Más allá de la escritura estricta de artículos, hay otras tres funciones en las que la IA puede ayudar: resumir, editar y preparar el terreno. Un uso ya casi común es resumir un artículo ya redactado en tuits o copy para redes. O para probar con titulares y definir el subtítulo. ChatGPT también edita y recorta: “Recorta 200 palabras de este artículo” o “quita dos frases de cada párrafo”. Obviamente, también traduce, busca errores o sustituye palabras largas.

Una cosa más fina pero también sencilla es “prepárame preguntas que harías si fueras un niño de diez años a una física cuántica” o “con qué perfiles debería hablar si preparo un artículo sobre la inflación”. Todo esto no es ciencia ficción. Ya ocurre. Una alumna mía prepara estos días su trabajo de fin de grado: un reportaje sobre cine. Buscaba un experto en un ámbito concreto del cine. Había mirado ya en Google, preguntado a un profesor de historia del cine y hablaba con una compañera de la carrera: “Pregúntale a ChatGPT”, le dijo. Le dio varios nombres y un puñado son ya fuentes de su futuro trabajo.

Este es un ejemplo cercano, pero el director de Insider permite a sus periodistas que usen la aplicación para escribir y recabar información y ha sugerido a los redactores jefe que deberían preguntar a la IA sobre ideas para historias. Son ejemplos habituales en periodismo más tradicional. Pero luego está escribir código para algún proyecto o buscar patrones en datos.

En 2023 no eliminará trabajos en redacciones. Entre la aparición de una novedad revolucionaria y su implantación pasa un tiempo: el año de fundación de Google, Facebook o Twitter es bastante anterior a sus impactos reales. ChatGPT puede ir más rápido, pero las organizaciones se adaptan más despacio. Más en algo que puede provocar errores y ridículo general.

“El buen periodismo es original y revela verdades antes desconocidas u ocultas”, dice Madhumita Murgia, la redactora de IA del Financial Times, en una entrevista. “Los modelos de lenguaje funcionan al predecir la siguiente palabra más probable en una secuencia, según el texto con en el que han sido entrenados. Por tanto, en última instancia, no pueden producir o descubrir nada realmente nuevo o inesperado en su forma actual”.

El paso al ralentí de las organizaciones y el periodismo bien entendido son dos motivos por los que el impacto en este oficio puede ser relajado. Pero sí que agilizará las redacciones

El paso al ralentí de las organizaciones y el periodismo bien entendido son dos motivos por los que el impacto en este oficio puede ser relajado. Pero sí que agilizará las redacciones. También hará tan barata la matraca viral sacada de redes que quizá pase a tener menos valor: “Lee estos tuits sobre cómo se pelean estos dos conductores y escribe un artículo de tres párrafos”. O quizá haya el mismo tipo de contenido, si bien los redactores serán más libres para buscar otros enfoques.

Pero los ajustes serán inevitables porque ya están ocurriendo. “Puedo ver cómo podría ser útil [la IA en periodismo] en el futuro“, asegura Murgia, sin concretar una fecha, “a medida que se vuelva más preciso para recopilar información básica rápidamente, esbozar temas y experimentar con resúmenes y titulares”. Siempre quedará la opción de tener que revisar y retocar lo que salga de la máquina. No obstante, será una opción cuyo peso quizá se reduzca: cuando la máquina haya hecho 500 titulares aceptables, igual automatizamos ese proceso.

Luego Murgia añade más campos en los que probar con IA en terrenos nuevos: “Quizás los chatbots sean una nueva forma de interactuar con las audiencias, proporcionar contenido personalizado e interactuar con un lector, en función del contenido propio de una organización”.

Una evolución evidente de internet es que las audiencias se han atomizado: ahora hay contenido extraordinario en internet de temas que hace unos años cubría una persona o nadie en las redacciones. El ajedrez, el sur, las zapatillas, el maquillaje, la comida tienen cientos de expertos repartidos por las redes. La IA puede ayudar a ampliar los horizontes de medios en lugar de reducirlos.

Si no lo hacen los medios, siempre habrá otros dispuestos. Artifact es la nueva app de los creadores de Instagram: personaliza noticias según los intereses de cada usuario. Para mí, por ejemplo, selecciona mucha tecnología y otras cosillas. A finales de abril anunciaron una función que resumirá los artículos con un clic. Pero también hará cosas más “divertidas”: podrá resumir una noticia como si la explicara a un niño de cinco años o la escribirá solo con emoticonos. Todo lo que han hecho es conectar su app al motor de OpenAI, los creadores de ChatGPT. Así de fácil. Por ahora lo hace una app, no los propios medios. Y llevamos solo unos meses.

*Foto: Thanmano / Adobe Stock

Contenidos relacionados: