El impacto de la IA generativa en el trabajo de los periodistas: herramientas y respuestas
*PILAR BERNAT
La inteligencia artificial generativa (IAG) es una rama de la ciencia de los algoritmos que proporciona contenido original a partir de bases de datos existentes. En periodismo, su aplicación plantea desafíos en términos de profundidad, veracidad, modo y uso de la información.
Sin embargo, las plataformas cerradas profesionales, aun partiendo de un mismo desarrollo informático, ofrecen mayores garantías, al igual que el uso de las API integradas en los sistemas de gestión de contenidos (CMS) agilizan y optimizan el trabajo de los redactores. Este artículo está basado en la experiencia de la autora y en el estudio del efecto que produce la automatización en los medios de comunicación, además del análisis de las diferentes herramientas que se han integrado en los programas de edición en España.
La inteligencia artificial generativa (IAG) es una rama de la inteligencia artificial que se enfoca en la generación de contenido original a partir de datos existentes. Esta tecnología utiliza algoritmos y redes neuronales avanzadas para aprender de textos e imágenes, y luego generar contenido nuevo y único. Además, ante una petición puede devolver contenidos o ideas en forma de conversaciones, información, explicación, aportaciones, historias, imágenes, vídeos y música (IA: ChatGPT 3.5).
Basta con preguntarle a cualquiera de los sistemas de IAG una definición sobre sí mismos para que su respuesta sea clara y suficientemente comprensible para cualquier persona que lo lea y no sienta mayor curiosidad o interés en profundizar sobre el tema.
Y es precisamente eso, la profundidad o especialización de los temas, una de las primeras cuestiones que, en términos de uso de la IAG en periodismo, habría que poner sobre la mesa, ya que el impacto por la llegada de una nueva herramienta -repito, herramienta-, que nos aporta mucho más de lo que nuestra mente podía imaginar, nos impide ver su efecto real sobre nuestra profesión, la orientación de nuestra defensa -caso de ser necesaria-, la utilidad de sus sistemas integrados en nuestros editores, si el uso que hace de la lengua castellana es el más correcto o si realmente llega para sustituirnos, para salvarnos o para ayudarnos.
La profundidad o especialización de los temas es una de las cuestiones que habría que poner sobre la mesa para el uso de la IAG en periodismo
Por supuesto, el problema más relevante es la exactitud o veracidad de la información que se nos ofrece, puesto que nadie garantiza que el contenido en el que se base esté revisado o contrastado; pero eso es algo que afecta a todo el mundo en cualquier tipo de uso que se haga de la máquina, no solo en comunicación.
Y si bien es verdad que los propios sistemas generativos automatizados se utilizan y son una gran esperanza para contrastar afirmaciones y noticias, conviene recordar que, según el estudio de Lucas Grave para el Instituto Reuters para el Estudio del Periodismo en la Universidad de Oxford, titulado Comprender la promesa y los límites de la verificación automatizada, “las conclusiones a las que llegan las organizaciones profesionales de verificación de datos a menudo requieren la capacidad de comprender el contexto, ejercer el juicio y sintetizar evidencia de múltiples fuentes. Muchas afirmaciones no se prestan a veredictos simples de verdadero o falso.
El problema más relevante de la IAG es la exactitud o veracidad de la información que se nos ofrece
Pero incluso las declaraciones aparentemente sencillas que pueden ser refutadas por cualquiera presentan un desafío espinoso para la verificación automatizada. A pesar de algunos avances, ningún sistema AFC (tecnologías automatizadas de verificación de datos) realiza esto de manera confiable en la actualidad”.
Orígenes borrosos
Pero echemos un segundo la vista atrás. Al no estar claramente definido el concepto de IA generativa aplicada al periodismo, tampoco se puede establecer claramente su punto de partida. Los Angeles Times se arroga la paternidad de este fenómeno, al ser los primeros que publicaron un breve, elaborado por un algoritmo, sobre un terremoto que tuvo lugar en California en 2014. No obstante, un breve no es exactamente la redacción de una noticia; como mucho, sería parte de ella¹.
Otras fuentes consideran que la primera vez que se utilizó la IAG para escribir información fue en 2022, cuando la tecnológica israelí Narrative Science utilizó el editor de texto enriquecido de código abierto Quill, creado por Jason Chen y Byron Milligan, el cual fue capaz de generar noticias de forma automática a partir de datos reales. En concreto, Quill se utilizó para redactar una pieza para The New York Times sobre el lanzamiento de un producto de Apple, la cual se realizó a partir de una serie de datos sobre el gadget, como sus características, precio y fecha de lanzamiento.
Sin embargo, esta información no es exacta, ya que mucho antes, en 2018, un grupo de periodistas españoles², apoyados por un spin off de la Universidad Politécnica de Madrid, Dail Software³, iniciaron la comercialización de Leo Robot IA. Esta plataforma escribía con precisión y buen uso del castellano textos completos, cada uno distinto del anterior, a partir de datos estructurados (los que se pueden ordenar en una tabla) y sin mediar plantillas, como ya hacía la empresa de I+D+i Narrativa.
La primera vez que se utilizó la IAG para escribir información fue en 2022
El elevado precio del software y el miedo a la reacción de las plantillas frenaba a los editores; tanto, que al proyecto, afectado también por la llegada de la pandemia, no se le dio continuidad. Los únicos textos que se publicaron escritos por LeoIA, fueron pruebas-demo que se pueden leer en la web tecnológica Zonamovilidad.es.
Quien sí se adelantó al español LeoIA fue The Washington Post, que introdujo en 2016 un robot llamado Heliograf, cuyo fin era redactar noticias cortas sobre eventos deportivos, económicos y políticos. Durante su primer año de actividad, el programa produjo aproximadamente 850 artículos, de los cuales 500 fueron para la cobertura de las elecciones.
Y antes que Heliograf, Associated Press (AP) había empleado Automated Insights para la redacción automática de notas sobre resultados empresariales. A esta corriente se fueron sumando paulatinamente Bloomberg y su robot Cyborg, autorredactor de la sección de economía basándose en datos financieros; o Reuters, con un sistema llamado NewsRobot especializado en competiciones deportivas, entre otras pequeñas experiencias. La BBC, China Daily, Forbes y Le Monde son otros medios que han publicado sus propias experiencias, casi siempre centradas en deportes y finanzas.
Una herramienta sofisticada
Todos los medios de comunicación mencionados recurrieron de forma temprana a la IA para publicar de una manera más rápida y eficiente; pero sus noticias, siempre de segundo orden, nunca estuvieron mejor construidas o documentadas que las relevantes que realizaban periodistas experimentados y especializados capaces de relacionar, deducir o discernir. Por tanto, si el primer problema que encontramos en términos periodísticos a la inteligencia artificial fue la falta de profundidad en temas especializados (siempre dependientes de la calidad de la pregunta), la segunda posición del ranking se la debemos otorgar a la imposibilidad de sustituir la experiencia, la capacidad de reflexión, las relaciones personales, el uso de fuentes directas y el conocimiento aplicado.
Las noticias creadas por IA nunca estuvieron mejor construidas que las relevantes que realizaban periodistas experimentados
En el caso de la rigurosa actualidad, resulta evidente que no hay base de datos a la que programa alguno pueda recurrir al no estar almacenado el hecho noticioso; así pues, ninguna inteligencia artificial generativa puede elaborar la correspondiente información. Dependiendo del tipo de ese hecho, sí podemos pedirle ayuda a la hora de encontrar el antecedente o la potencial consecuencia.
Pero, como decíamos al principio, la IAG es una herramienta creada por humanos para el uso de los humanos, y como tal debemos utilizarla y entenderla. El sistema se basa, principalmente, en modelos de machine learning: algoritmos que se entrenan previamente de forma supervisada con grandes cantidades de datos y que para devolver resultados recurre al big data alojado en la nube.
No hay base de datos a la que programa alguno pueda recurrir para redactar sobre actualidad
Esa cantidad ingente de datos que hoy se encuentra en la nube se recoge continuamente de todos y cada uno de los sensores que tenemos a nuestro alrededor: sistemas informáticos, telefonía móvil, elementos de red, redes sociales, medidores de cualquier cosa que transmita información, bibliotecas de contenido escrito, imagen fija, imagen en movimiento, resultados de geoposicionamiento, etc. Y como todos los grandes contenedores de datos, estos deben cumplir cuatro principios para que se puedan utilizar en big data: que haya un volumen suficiente, que tengan variedad, que se puedan recoger, encontrar y enviar a gran velocidad y que sean veraces (pero no como sinónimo de creíbles, sino de contrastablemente verdaderos).
Verdad o mentira, siempre contrastar
Y es aquí donde nos encontramos con el tercer problema: la nula garantía de que los datos o las bases de datos -ingentes normalmente- que haya utilizado la IAG sean auténticos. Y también es aquí donde debemos introducir la diferencia entre un sistema open -utilizado por todos, modificado por todos y con respuestas para todos- y un entorno cerrado en el que el sistema de inteligencia artificial generativa se asocia a bases de datos concretos de una empresa, una universidad, una biblioteca, un hospital… Y allí, en las colecciones de datos específicas, es donde va a buscar su información para aplicar reglas gramaticales que deberían arrojar resultados óptimos.
En el primer caso, hay que esperar que la base elegida por el robot contenga información contrastada y no inventada o que no sea producto de un clickbait⁴. Pero no es un hecho garantizado. ChatGPT es un novelista, un poeta, un cuentista, algo a lo que le dices “escribe” y escribe; como si le pides una redacción a un niño. Se le solicita contenido y devuelve contenido, si bien no necesariamente tiene que ser fiel a hechos reales o verdades. De ahí que los resultados de una búsqueda, si se van a utilizar para informar, investigar, reescribir o educar, deben ser contrastados (una máxima del periodismo tradicional que para algunos ha caído en desuso).
No, no todo lo que dice ChatGPT es necesariamente verdad. ChatGPT es una inteligencia artificial que proporciona respuestas basadas en el conocimiento y la información disponible en su conjunto de datos de entrenamiento, que se encuentra actualizado hasta enero de 2022. La precisión de las respuestas depende de la precisión y relevancia de la información en ese conjunto de datos. Además, ChatGPT no tiene la capacidad de verificar la veracidad de la información en tiempo real (IA: ChatGPT 3.5).
Otro tanto contestarían otros sistemas análogos como Bing/Copilot (basados en Open AI como ChatGPT), Llama de Meta o Bard de Google:
No, no todo lo que dice Bard es verdad. Bard es un modelo de lenguaje grande, también conocido como IA conversacional o chatbot, entrenado para ser informativo y completo. Estoy entrenado en una gran cantidad de datos de texto y soy capaz de comunicar y generar texto similar al humano en respuesta a una amplia gama de indicaciones y preguntas. Por ejemplo, puedo proporcionar resúmenes de temas fácticos o crear historias.
Sin embargo, Bard todavía está en desarrollo y no siempre soy capaz de proporcionar información precisa o completa. También puedo ser sesgado en mis respuestas, reflejando los sesgos en los datos en los que estoy entrenado. Por lo tanto, es importante ser crítico con la información que proporciona Bard. Si tiene dudas sobre la veracidad de algo que he dicho, le recomiendo que investigue más por su cuenta. (Bard)
Así, para quienes recurren a este tipo de herramientas en un entorno abierto, el consejo de cualquier técnico especialista es indicar al sistema qué datos debe usar; por ejemplo, “hazme un artículo preciso con esta información…”. Tanto ChatGPT como Bard o Copilot tienen temperatura (precisión) y se puede ajustar el modelo. Cuanto más divertido y creativo, menos certero; cuanto más preciso, más acertado.
A ChatGPT se le solicita contenido y devuelve contenido, si bien no necesariamente tiene que ser fiel a hechos reales o verdades
Según explica Laura Martín Pérez, experta en lingüística computacional de NTT Data y una de las artífices de LeoIA⁵, la principal diferencia con aquellos primeros robots periodistas que entraron en nuestras vidas hace poco más de un lustro es “que había que darle a la máquina instrucciones desde cero: qué es una palabra, qué es una frase, se hacían los grafos de sintaxis, etc.; y ahora lo hace la caja de la IA sistemáticamente y las instrucciones vienen preconfiguradas, lo que permite generar aplicaciones tan rápidamente como imaginación se tenga”.
Entornos cerrados y seguros
En entornos profesionales o empresariales, la situación es bien distinta y este tipo de tareas automatizadas ofrecen garantías, pues, como explica Martín Pérez, “utilizamos una caja negra en la que el usuario no puede tocar nada, ni la respuesta ni las preguntas que se van a entregar. Lo que sí se puede hacer es inyectar las fuentes de búsqueda para que el sistema de IAG integrado se base en un contenido fiable”. Como antes decíamos, las empresas pueden asociar sus propios datos, aportar una fuente concreta (fiable, con volumen, accesible y variada) a la que recurre la IAG para devolver resultados exactos.
Para la especialista en IA, el éxito en el resultado, sea cual sea la plataforma utilizada (ChatGPT, Copilot, Bard, Llama, Bedrock, etc.), reside en los denominados prompt engineers, lingüistas que generan el comando adecuado para que el sistema haga lo que tú quieres y saben cómo estresarlo para obtener la respuesta exacta. Ellos son el factor diferencial básico entre un uso profesional o uno general de cualquier sistema generativo.
Martín Pérez añade que, “en entornos cerrados, la capa de seguridad la pone, por ejemplo, Microsoft a través de Azure, para que los datos utilizados y los aportados por el usuario se mantengan en nubes de confianza y no viajen libremente por la red”. Y aquí nos encontramos con el cuarto problema: la seguridad. Nunca podemos teclear información sensible, porque todo lo que escribamos en cualquiera de los sistemas abiertos de IAG puede ser susceptible de ser reutilizado de forma inmediata. Si metemos una cuenta corriente y alguien pide números aleatorios de cuentas corrientes, puede recibir la nuestra. Igualmente, si tenemos una primicia o una exclusiva y utilizamos las plataformas para resumir, reescribir, titular, ilustrar, etc., podría dejar de serlo.
Utilidades periodísticas integradas en los editores
Precisamente, resumir, reescribir, titular, ilustrar, etiquetar, hacer SEO, traducir o transcribir vídeo a texto son algunos de la infinidad de servicios que ofrece Open AI a sus clientes; pero, sobre todo, son las herramientas básicas que cualquier periodista tiene a su disposición para trabajar. Y en términos generales, lo que se está haciendo en los medios es utilizar las plataformas públicas y abiertas para generar texto. Ya hay empresas que han puesto a disposición de los creadores de contenidos CMS (sistema de gestión de contenidos, por sus siglas en inglés), en los que se han integrado las API correspondientes (reglas y especificaciones que permiten que diferentes programas se comuniquen entre sí) -bien de Open AI, bien de AWS u otras personalizadas-, integrar IA para que los profesionales de la información puedan trabajar con ella desde sus editores o páginas de trabajo.
Todo lo que escribamos en cualquiera de los sistemas abiertos de IAG puede ser susceptible de ser reutilizado
Pionero en este campo, en España, ha sido el Grupo Cibeles⁶, que ha adaptado sus CMS, Editmaker y WordPress (Plugin AI Cibeles, 75 euros por un millón de palabras o suscripción mensual), para edición de prensa escrita. Su director, Joaquín Abad, nos explica que el 85% de sus clientes ya utiliza la IA integrada y considera que “quienes no lo hacen es por desconocimiento, porque albergan cierto temor a lo desconocido o a utilizar una herramienta que no tienen claro si pudiera tener consecuencias”.
En su caso, han implementado ChatGPT-3,5 turbo y no repercuten el costo a sus clientes habituales, puesto que medio millón de palabras tiene un precio aproximado de tres euros, es decir, es insignificante. En concreto, Open AI cobra 0,003 dólares por cada 1.000 tokens, aunque tiene una limitación de palabras. En el caso de la última versión, el precio ya sube a 0,03 por cada 1.000 tokens.
Mi diseño se basa actualmente en GPT-4. Sin embargo, para GPT-3, el límite de tokens por entrada era de 2.048 tokens. Un token puede ser tan corto como un carácter o tan largo como una palabra. Por ejemplo, “a” es un token, pero “apple” también es un token. Es importante tener en cuenta que este límite incluye tanto la entrada del usuario como la respuesta del modelo. Por lo tanto, si un usuario proporciona una entrada muy larga, la respuesta puede verse truncada (ChatGPT 4).
Pues bien, en el caso de Editmaker, una vez identificado el usuario y dentro de la plantilla, las herramientas de automatización aparecen claramente diferenciadas, tanto por el color como por un símbolo que lo acompaña y nos permite:
- Generar texto o documentarse. Basta con elegir un enunciado para que nos proporcione un texto sobre una temática; pero, además, podemos concretar el número de palabras, el estilo deseado, la estructura del artículo, etc. Una vez tenemos la plantilla ante nuestros ojos, podemos copiar, reiniciar, extender o incluso convertir a lenguaje de programación HTML.
- Realizar una entradilla o resumen. En este caso, suele ser muy exacta, aunque se devuelve en formato de frases cortas y puntuadas, no como respuesta a las cinco W de la información que se enseñan en el periodismo tradicional. Por tanto, para los medios tradicionales requiere edición; para los que buscan posicionamiento, tal vez no.
- Listado de puntos destacados. El programa permite copiar en el espacio indicado un texto y extraer numerado y por puntos el contenido principal. En algunos casos, lo enriquece y añade epígrafes relacionados que no se encuentran en el texto original.
- Etiquetas. Genera los denominados tags; aunque, de momento, no los relaciona con las listas de tendencias o palabras clave publicitarias, sino que los entresaca de la pieza sobre la que se está trabajando.
- Clickbait. Nos ofrece una lista de posibles titulares buscando su éxito o mejor posicionamiento en internet.
- Refrito. Hasta hoy, es la herramienta más utilizada y se usa para reescribir notas o textos a los que se quiere dar otro uso o visión.
- Corrector. Como su nombre indica, la opción nos permite corregir y mejorar ortográfica y gramaticalmente nuestros trabajos.
- Traductor. La plataforma puede traducir a 38 idiomas.
Además, incluye una herramienta de SEO que en un solo clic o en tres separados elige y escribe el Metatítulo, que si se rellena será la que aparezca en el apartado title del código, la Metadescripción y las Metakeywords.
El plugin de WordPress es similar en cuanto a la señalización de las herramientas integradas; aunque, en este caso, tiene algunas adaptaciones. Por ejemplo, el titular nos da tres opciones: titular, titular corto y clickbait. Las pestañas que nos asisten en el texto son resumen, autoextracto (extracto de texto que aparece en la página de resultados debajo del título para describir su contenido), introducción, conclusión, refrito, corrector y YouTube. Mención especial merece este último punto, ya que permite señalar la dirección de un vídeo y nos responde con un artículo escrito conforme a la transcripción del contenido.
En cuanto a la ilustración de la información, en el CMS de Grupo Cibeles existe la posibilidad de solicitar la creación de una imagen relativa al tema en cuestión (caso de no requerirse foto noticia). La plataforma recurre a una popular herramienta de generación de imágenes que también pertenece a OpenAI, cuyo nombre es DALL-E. En este caso, te da tres opciones para redactar el prompt y tres posibilidades de resultado en cada una de ellas. Mi experiencia dice que, si queremos algo elaborado, debemos salir del editor y acudir a programas como Midjourney, Stable Difussion o incluso el propio DALL-E dentro de Copilot. Pero, si queremos hacerlo desde el propio editor y buscamos una imagen simple, seguro que la obtendremos.
Aún quedan interrogantes
Como decíamos al principio, aún hay un porcentaje de gente que no confía en los sistemas de automatización o piensa que no va a saber utilizarlos y, entre otras cuestiones, les surgen las siguientes:
- ¿Es perfecto el sistema? No. Por ejemplo, en el caso de YouTube, nos devuelve un texto sin puntos y apartes que tenemos que editar. También se le puede acusar de cometer alguna faltilla de puntuación y acentos, de utilizar un castellano “universal” que deberemos españolizar, de reiterar las estructuras o de que la coherencia y la conexión de los textos es muy simple al no utilizar conectores ricos.
- ¿Es único? Tampoco. Entre otros, hay un CMS que está adquiriendo popularidad cuyo nombre es Mark Glide.
- ¿La estructura gramatical es correcta? Debemos tener en cuenta que, si queremos que los buscadores nos posicionen, hay que dar a la información una estructura de headers (encabezamientos, titulillos o ladillos) que detecten claramente los robots y que, si se le pide a ChatGPT, te lo puede hacer directamente.
- ¿Puede hacer mi trabajo? Dependiendo del espacio y la relevancia de la información. Si es un post, sí; si es un artículo de actualidad, un hecho noticioso, un reportaje, una crónica, etc., no. Sí es fundamental para agilizar y optimizar; lo cual es de agradecer, ya que desde que Google impuso sus normas en el periodismo digital se nos exige publicar y publicar “lo que sea” con relación a una tendencia para que se generen clics y, en consecuencia, ingresos. Este tipo de sistemas nos permiten alimentar a los buscadores, inspirarnos, documentarnos y hacer apoyos explicativos que no requieren un mayor esfuerzo (datos biográficos, definiciones, descripción de una tecnología, etc.
En el artículo Diez cosas sobre la IA que toda redacción debería saber, publicado en la revista digital Medium, Tom Van de Weghe explica las conclusiones a las que ha llegado un grupo de investigación de Standford cuya materia de estudio era la desmitificación de la inteligencia artificial: “Existe una gran preocupación por que el uso de inteligencia artificial degrade el papel de los periodistas. Los experimentos y la implementación de IA en grandes organizaciones de noticias como AP muestran lo contrario: liberan hasta un 20% del tiempo de los periodistas. De esta manera, los profesionales pueden centrarse en el contenido y dedicar más tiempo a su especialidad principal”.
Hay un porcentaje de gente que no confía en los sistemas de automatización o piensa que no va a saber utilizarlos
En resumen, la IAG es una poderosa herramienta creada por hombres para el uso de los hombres que utiliza algoritmos con objeto de generar contenido original a partir de datos existentes. Sin embargo, su uso en el periodismo plantea desafíos, como la falta de profundidad en temas especializados, la relación con otros hechos relevantes para la noticia, la información en tiempo real o la veracidad de los textos proporcionados, lo que conlleva la necesidad de contrastar todos los resultados. Aunque las plataformas abiertas de IAG son muy útiles, las soluciones cerradas profesionales o las integradas en los editores ofrecen mayores garantías y permiten a los profesionales de la comunicación trabajar de manera más eficiente. Es importante entender y utilizar adecuadamente estas herramientas para aprovechar al máximo su potencial.
Bibliografía
- Beer, D. (2023). The future of journalism in the age of artificial intelligence. Routledge.
- Columbia University (2023). The potential of AI generative technology for journalism. Columbia University Press.
- Diakopoulos, N. (2019). Automatización de las noticias: cómo los algoritmos están reescribiendo los medios. Harvard University Press.
- Glaser, M. (2022). AI and the future of journalism. Columbia University Press.
- Marconi, F. (2020). Creadores de noticias: la inteligencia artificial y el futuro del periodismo. Columbia University Press.
- Oxford University (2023). The impact of AI generative technology on journalism: A survey of journalists. Oxford University Press.
- Redacción de Europa Press (2023). “Google prepara una herramienta de IA generativa destinada a ayudar a periodistas en la escritura de artículos”. Europa Press.
- Reuters Institute for the Study of Journalism (2018). “Un debate liderado por la industria: cómo los medios del Reino Unido cubren la inteligencia artificial”. Reuters Institute. Universidad de Oxford.
- Stanford University (2022). The ethics of AI-generated news: A study of journalists’ perspectives. Stanford University Press.
- Tow Center for Digital Journalism (2016). Guía de periodismo automatizado. Universidad de Columbia.
- Tow Center for Digital Journalism (2017). Inteligencia artificial: práctica e implicaciones para el periodismo. Universidad de Columbia.
- Zimmer, M., Gebru, T. y Bender, E. (2023). The ethics of AI-generated news. MIT Press.
Notas al pie
1. El periodista y programador Ken Schwencke fue el responsable de la creación del algoritmo que automáticamente generó aquel artículo cuando se produjo el seísmo.
2. Pilar Bernat, Juan Carlos F. Galindo, Javier López Tazón y José Manuel Nieves.
3. Dail Software (2023). Robots Periodistas, IA al servicio de los periodistas.
4. El término “clickbait”se refiere a contenido en internet, generalmente titulares de artículos, publicaciones en redes sociales o miniaturas de vídeos, diseñados específicamente para atraer la atención de los usuarios y alentarlos a clicar en un enlace a una página web particular. El objetivo principal del clickbait es generar ingresos por publicidad basados en el número de vistas o clics que una página web puede acumular.
5. Laura Martínez Pérez fue la lingüista computacional que desarrolló LeoIA mientras trabajaba en Dail Software y bajo la dirección del director de la Cátedra Unesco de Tecnologías del Lenguaje “Teclin”, Jesús Cardeñosa.
6. Cibeles Group es una empresa especializada en publicaciones digitales y soluciones para medios de comunicación, como gestores de contenidos para periódicos y revistas, dirigida por Joaquín Abad.
Pie de foto: Imagen generada por Dall-e
Contenido relacionado:
- 'Inteligencia artificial en periodismo: oportunidades, riesgos, incógnitas', por Pablo Sanguinetti
- 'La influencia de la IA en el periodismo será grande, pero nadie sabe cuánto', por Jordi Pérez Colomé
- 'Ética e inteligencia artificial: herramientas para gobernar a los algoritmos desde el periodismo', por Patricia Ventura Pocino
- "Carta a los Lectores: Periodismo entre bombas, desinformación y leyes abusivas", por José Francisco Serrano Oceja
- "El cementerio de Gaza", por Felipe Sahagún
- "Gaza, la guerra de los sesgos", por Myriam Redondo
- "Un día de la pasada primavera", por José Ignacio Wert Moreno
- Del "gesto simpático" al #SeAcabó: 23 días que sacudieron al periodismo, por Carolina Pecharromán