LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1120.

DOI: https://doi.org/10.56712/latam.v5i6.3069

Inteligencia Artificial en el Periodismo: Innovación, Ética y
colaboración en la creación y verificación de contenidos

Artificial intelligence in journalism: innovation, ethics, and collaboration in
content creation and verification


Luis Edwin Quimis Arteaga

luis.quimisarteaga14@gmail.com
https://orcid.org/0009-0008-5948-8393

Universidad Estatal de Milagro
Ecuador


Artículo recibido: 14 de noviembre de 2024. Aceptado para publicación: 28 de noviembre de 2024.

Conflictos de Interés: Ninguno que declarar.

Resumen
Este artículo revisa el impacto de la inteligencia artificial (IA) en el periodismo, enfocándose en tres
áreas clave: innovación, ética y colaboración en la verificación de noticias. La IA facilita la generación
de contenidos automatizados y el análisis de grandes volúmenes de datos, lo que aumenta la
eficiencia en la producción periodística. Sin embargo, el uso de IA también plantea importantes
desafíos éticos, como la transparencia algorítmica, el sesgo inherente y la responsabilidad en la
creación de contenido. Asimismo, la colaboración entre periodistas y sistemas de IA resulta esencial
en la verificación de información, mejorando la precisión y rapidez en la lucha contra la
desinformación. Concluimos que la integración ética y equilibrada de la IA en el periodismo puede
potenciar la calidad informativa y reforzar la confianza del público.

Palabras clave: inteligencia artificial, periodismo, innovación, ética, verificación de contenidos,
desinformación


Abstract
This article reviews the impact of artificial intelligence (AI) on journalism, focusing on three key areas:
innovation, ethics, and collaboration in news verification. AI facilitates automated content creation and
large-scale data analysis, enhancing journalistic efficiency. However, AI usage also raises significant
ethical challenges, including algorithmic transparency, inherent biases, and responsibility in content
creation. Additionally, collaboration between journalists and AI systems is essential in information
verification, improving accuracy and speed in countering misinformation. We conclude that the ethical
and balanced integration of AI in journalism can enhance informational quality and reinforce public
trust.

Keywords: artificial intelligence, journalism, innovation, ethics, content verification,
misinformation



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1121.






























Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades,
publicado en este sitio está disponibles bajo Licencia Creative Commons.

Cómo citar: Quimis Arteaga, L. E. (2024). Inteligencia Artificial en el Periodismo: Innovación, Ética y
colaboración en la creación y verificación de contenidos. LATAM Revista Latinoamericana de Ciencias
Sociales y Humanidades 5 (6), 1120 – 1139. https://doi.org/10.56712/latam.v5i6.3069



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1122.

INTRODUCCIÓN

La incorporación de la inteligencia artificial (IA) en el periodismo representa una transformación
significativa en la manera en que se crean, distribuyen y verifican las noticias. En un contexto en el que
las demandas informativas de la sociedad aumentan, la IA ofrece soluciones innovadoras que permiten
generar y analizar grandes volúmenes de información en tiempo real (Gynnild, 2014). A medida que los
medios de comunicación buscan adaptarse a las expectativas de los consumidores digitales, la IA se
ha convertido en una herramienta clave para agilizar procesos, mejorar la precisión de la información
y personalizar la experiencia de los usuarios (Carlson, 2018). Esta tecnología ha demostrado ser
particularmente efectiva en la automatización de tareas repetitivas y en la creación de contenido de
alta demanda en plataformas digitales (Diakopoulos, 2019).

Un aspecto central de la integración de la IA en el periodismo es su capacidad para producir artículos
de manera autónoma a partir de datos estructurados, un proceso conocido como "periodismo
automatizado" o "narrativa generada por máquinas" (Graefe, 2016). Estas herramientas permiten la
redacción de noticias financieras, deportivas y meteorológicas, entre otras, de forma precisa y rápida
(van Dalen, 2012). Sin embargo, este uso plantea interrogantes sobre el rol del periodista en una era
donde las máquinas son capaces de replicar tareas que antes dependían exclusivamente de la
intervención humana (Schwab, 2016). Algunos estudios sugieren que la IA no solo complementa el
trabajo de los periodistas, sino que también genera nuevas posibilidades para el análisis de datos y la
cobertura informativa en temas de interés público (Lewis et al., 2019).

Por otro lado, la introducción de la IA en el periodismo no está exenta de desafíos éticos. Uno de los
dilemas más debatidos es el riesgo de desinformación y sesgo inherente en los algoritmos de IA, que
pueden perpetuar o amplificar prejuicios existentes si no se implementan adecuadamente (Binns,
2018). Además, la falta de transparencia en los procesos de IA puede hacer que los consumidores de
noticias tengan dificultades para discernir la fuente y veracidad de la información, lo que a su vez
genera problemas de confianza en los medios (Montal & Reich, 2017). La ética en el periodismo de IA
requiere una supervisión y ajuste constante de los algoritmos para evitar que estos afecten
negativamente la calidad informativa y el derecho de la audiencia a una información imparcial (Napoli,
2019).

La colaboración entre humanos y máquinas también destaca en el ámbito de la verificación de
contenidos, donde la IA se utiliza para detectar información errónea o manipulada en redes sociales y
otros canales digitales (Vosoughi et al., 2018). Herramientas de IA, como los algoritmos de aprendizaje
profundo, permiten identificar patrones de desinformación, generando alertas tempranas sobre
posibles noticias falsas (Shu et al., 2017). Esta capacidad resulta especialmente relevante en un
entorno informativo donde la velocidad y el volumen de contenido hacen difícil para los periodistas
corroborar cada dato de manera manual (Thurman et al., 2019). La colaboración entre periodistas y
sistemas de IA representa un modelo de trabajo conjunto en el que las fortalezas de ambos se
combinan para mejorar la precisión y rapidez en la difusión de noticias (Hermida, 2012).

Pese a las ventajas que ofrece, la IA también enfrenta limitaciones significativas en el periodismo,
especialmente en la interpretación de información contextual y en el análisis crítico, áreas donde la
intervención humana sigue siendo esencial (Carlson, 2015). La IA puede procesar grandes cantidades
de datos y detectar patrones, pero carece de la comprensión de matices culturales, sociales y políticos
que los periodistas experimentados aportan a sus reportajes (Zamith, 2019). La falta de
contextualización y el riesgo de interpretaciones simplistas resaltan la importancia de una
colaboración en la que los periodistas supervisen y contextualicen los hallazgos generados por las
máquinas, garantizando así una cobertura informativa más completa y precisa (Tandoc et al., 2020).



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1123.

Además, el uso de la IA en el periodismo ha impulsado un debate sobre el futuro de la profesión y las
habilidades que los periodistas necesitarán desarrollar para coexistir con esta tecnología. La
adaptación a la IA no solo implica aprender a operar las herramientas, sino también entender los
principios subyacentes que rigen el funcionamiento de los algoritmos y su impacto en la producción
de noticias (Anderson et al., 2016). Algunos expertos sostienen que la alfabetización en IA será
esencial para los periodistas del futuro, ya que les permitirá identificar y corregir posibles sesgos o
errores generados por los sistemas automatizados (Graefe, 2016).

La IA en el periodismo representa una herramienta poderosa que tiene el potencial de transformar
radicalmente el campo, promoviendo tanto la innovación como la eficiencia en la creación y
verificación de contenidos. Sin embargo, también plantea desafíos éticos y prácticos que deben
abordarse para asegurar que la tecnología se use de manera responsable y efectiva. La colaboración
entre periodistas y sistemas de IA parece ser el camino más prometedor hacia un modelo de
periodismo en el que la precisión, la ética y la capacidad de verificación se vean fortalecidas.

Principales Teorías Vinculadas a la IA en el Periodismo

La intersección entre inteligencia artificial (IA) y periodismo se fundamenta en diversas teorías que
explican cómo los medios de comunicación, la tecnología y la sociedad interactúan y evolucionan
mutuamente. Estas teorías permiten comprender cómo la IA impacta la práctica periodística y su
relación con la audiencia, además de ofrecer un marco para evaluar las implicaciones éticas y
profesionales de su uso en la creación y verificación de contenidos. A continuación, se presentan
algunas de las teorías más relevantes en este contexto.

Teoría del Determinismo Tecnológico

La teoría del determinismo tecnológico sostiene que el desarrollo y la adopción de la tecnología
impulsan cambios sociales profundos, y que la tecnología misma es el motor de estos cambios, a
menudo de manera inevitable y autónoma (Smith & Marx, 1994). En el contexto de la IA en el
periodismo, esta teoría sugiere que las tecnologías automatizadas de generación de contenido y
verificación de información influyen en el modo en que los periodistas producen, seleccionan y
distribuyen noticias (McLuhan, 1964). A medida que la IA permite automatizar la redacción de informes
financieros, meteorológicos y deportivos, se plantea el riesgo de una reducción en la intervención
humana, lo que podría transformar fundamentalmente el periodismo tradicional hacia un modelo
donde las máquinas dominan ciertos aspectos de la producción noticiosa (Graefe, 2016). Esta teoría
también subraya que los cambios impulsados por la IA en el periodismo pueden generar una
dependencia excesiva de la tecnología, desplazando habilidades humanas que, hasta hace poco, eran
esenciales en el campo.

Teoría de la Agenda Setting

Desarrollada por McCombs y Shaw (1972), la teoría de la agenda setting sostiene que los medios de
comunicación no solo informan a la audiencia sobre los eventos, sino que también influyen en qué
temas consideran importantes. La IA podría tener un papel determinante en esta teoría, ya que su
capacidad para analizar grandes volúmenes de datos y detectar tendencias emergentes permite a los
editores identificar rápidamente temas de interés público (Diakopoulos, 2019). Al automatizar la
selección de temas a cubrir, la IA puede intervenir directamente en el proceso de establecimiento de
agendas, guiando tanto a los periodistas como a la audiencia hacia temas prioritarios. Sin embargo,
esto plantea preocupaciones sobre la transparencia y la objetividad, ya que los algoritmos, al estar
programados con datos específicos y sesgos implícitos, podrían inadvertidamente reforzar o incluso
amplificar ciertos prejuicios en la cobertura (Napoli, 2019).



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1124.

Teoría del Gatekeeping

La teoría del gatekeeping, propuesta inicialmente por Lewin (1947) y aplicada al periodismo por White
(1950), analiza el rol de los periodistas y editores como "guardianes" de la información, decidiendo qué
noticias se publican y cuáles se omiten. La IA desafía esta función tradicional, ya que permite la
curación automatizada de contenido basada en datos, algoritmos de recomendación y análisis
predictivo (Carlson, 2018). Esta tecnología puede asumir parte de las funciones de gatekeeping,
tomando decisiones sobre el contenido que llega a la audiencia sin intervención humana. Aunque esto
podría mejorar la eficiencia en los medios de comunicación, también abre interrogantes sobre el rol del
periodista como figura clave en la validación de noticias y en la preservación de la ética informativa, ya
que la IA, a diferencia de los humanos, carece de la sensibilidad ética necesaria para evaluar el impacto
de las noticias seleccionadas (Tandoc & Vos, 2020).

Teoría de la Construcción Social de la Tecnología (SCOT)

A diferencia del determinismo tecnológico, la teoría de la construcción social de la tecnología (SCOT)
plantea que la tecnología es moldeada y adaptada por los humanos y las fuerzas sociales que la rodean
(Bijker et al., 1987). Desde esta perspectiva, la implementación de la IA en el periodismo no es inevitable
ni autónoma, sino que depende de las decisiones y las expectativas de los actores involucrados,
incluidos periodistas, empresas mediáticas, reguladores y la sociedad en general. SCOT sugiere que el
uso de la IA en el periodismo será influido por los valores y las necesidades de estos actores, quienes
determinarán cómo se integra la IA y bajo qué condiciones. Este enfoque abre un espacio para que los
periodistas ejerzan control sobre cómo la tecnología se adapta a su labor, en lugar de simplemente ser
reemplazados por ella (Lewis & Westlund, 2015).

Teoría de la Transparencia Algorítmica

La teoría de la transparencia algorítmica propone que el funcionamiento de los algoritmos debe ser
visible y comprensible para garantizar que las decisiones automatizadas sean justas y responsables
(Pasquale, 2015). En el periodismo, esta teoría adquiere relevancia debido al papel que los algoritmos
de IA tienen en la selección y verificación de noticias. La transparencia en los procesos algorítmicos
es esencial para que la audiencia confíe en las noticias automatizadas y comprenda cómo se
seleccionan y presentan los contenidos. Sin embargo, la falta de regulación y la complejidad de los
algoritmos dificultan esta transparencia, generando desafíos para los periodistas y los medios que
deben balancear la innovación tecnológica con la rendición de cuentas y la ética (Ananny & Crawford,
2018).

Teoría del Periodismo Automatizado

La teoría del periodismo automatizado, desarrollada por Diakopoulos (2019), analiza el impacto de los
sistemas automáticos en la generación de contenido periodístico. Según esta teoría, la IA puede
automatizar tanto la redacción como el análisis de noticias, permitiendo que los periodistas se centren
en tareas más complejas, como la investigación y la contextualización de temas críticos. No obstante,
esta teoría también subraya que el periodismo automatizado no reemplaza completamente la
creatividad y la sensibilidad del periodista humano, sino que coexiste con estas cualidades. La IA, al
operar con patrones y datos, tiende a carecer de la profundidad analítica y la capacidad de generar
interpretaciones innovadoras, lo cual sigue siendo un valor intrínseco de los periodistas humanos
(Graefe, 2016). La teoría del periodismo automatizado sostiene que el rol del periodista no
desaparecerá, sino que se transformará, creando una relación simbiótica entre humanos y máquinas
en la producción de noticias.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1125.

Teoría de los Usos y Gratificaciones

La teoría de los usos y gratificaciones sostiene que la audiencia utiliza los medios para satisfacer
ciertas necesidades e intereses personales, lo cual se convierte en un factor determinante en la manera
en que los medios adoptan y adaptan nuevas tecnologías (Katz, 1959). En el caso de la IA en el
periodismo, esta teoría se manifiesta en cómo los medios emplean IA para analizar patrones de
consumo y personalizar contenidos para los usuarios (Lewis, 2019). La IA permite ofrecer una
experiencia informativa más ajustada a las preferencias de la audiencia, brindando recomendaciones
y facilitando el acceso a noticias relevantes. No obstante, también plantea preguntas sobre la
privacidad y la manipulación, ya que los medios pueden influir en las preferencias de la audiencia
mediante algoritmos que predicen y guían el consumo de noticias (Van den Bulck & Moe, 2018).

Teoría de la Ecología de los Medios

La teoría de la ecología de los medios, formulada por Neil Postman (1985), considera que los medios
de comunicación no existen de forma aislada, sino que interactúan y evolucionan junto con otros
sistemas mediáticos y sociales. La introducción de la IA en el periodismo se enmarca en esta teoría,
ya que implica un ecosistema en el que convergen diferentes tecnologías, plataformas y actores
sociales. La IA impacta no solo en la creación de contenido, sino también en cómo se distribuye y
consume, afectando los hábitos y expectativas de la audiencia (Nielsen & Ganter, 2017). Desde esta
perspectiva, el periodismo basado en IA no solo implica la automatización de tareas, sino que
reconfigura el ecosistema mediático en su totalidad, lo que conlleva transformaciones culturales y
sociales profundas que los medios deben considerar y gestionar.

Teoría de la Economía de la Atención

La teoría de la economía de la atención, propuesta por Simon (1971), sugiere que en un contexto de
sobrecarga informativa, la atención de la audiencia se convierte en un recurso escaso y valioso. La IA
en el periodismo permite captar y mantener la atención de la audiencia mediante la personalización y
la selección automatizada de contenidos de alto interés. Sin embargo, esta teoría también advierte
sobre los riesgos de una competencia excesiva por captar la atención, lo que puede llevar a los medios
a priorizar contenido sensacionalista o superficial (McManus, 1992). La IA, al optimizar la presentación
y difusión de noticias, debe equilibrar la búsqueda de audiencia con la responsabilidad de ofrecer
contenido de valor, evitando caer en la tentación de priorizar métricas de popularidad sobre la calidad
informativa (Anderson, 2013).

METODOLOGÍA

Este artículo se basa en una revisión sistemática de la literatura, estructurada de acuerdo con los
lineamientos del método PRISMA (Preferred Reporting Items for Systematic reviews and Meta-
Analyses). La revisión se centró en identificar, seleccionar, evaluar y sintetizar estudios sobre el uso de
la inteligencia artificial (IA) en el periodismo, considerando tres áreas clave: innovación, ética y
colaboración en la verificación de contenidos. Asimismo, se han incorporado estudios de caso
recientes y ejemplos específicos de medios que ya implementan IA exitosamente para contextualizar
los hallazgos en aplicaciones prácticas y actuales. A continuación, se describen los pasos
desarrollados para este proceso.

Criterios de Inclusión y Exclusión

Para asegurar la relevancia y actualidad de la revisión, se establecieron criterios específicos:



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1126.

Criterios de Inclusión

● Artículos de acceso completo y revisados por pares, publicados entre 2013 y 2024.
● Estudios que tratan específicamente temas de IA en el periodismo, con un enfoque en la

innovación en procesos de creación de contenidos, aspectos éticos y colaborativos, y estudios
de caso donde la IA ya esté siendo implementada en medios de comunicación.

● Artículos que aporten una perspectiva reciente y actualizada sobre las competencias y
habilidades requeridas para los periodistas en un entorno impulsado por IA.

● Publicaciones en inglés y español.

Criterios de Exclusión

● Estudios que no aborden de forma específica el uso de IA en el periodismo o cuya relevancia
sea tangencial.

● Artículos de opinión, editoriales o de divulgación sin análisis empíricos o teóricos profundos.
● Literatura duplicada o redundante en diferentes bases de datos.

Fuentes de Información y Estrategia de Búsqueda

Se emplearon diversas bases de datos académicas para asegurar una cobertura amplia y actualizada
de la literatura existente. Para complementar la búsqueda, se incluyeron estudios de caso recientes
que ilustran la implementación de IA en medios de comunicación de alto impacto.

Bases de datos consultadas: Scopus, Web of Science, IEEE Xplore, Google Scholar y ProQuest.

Palabras clave: "Artificial Intelligence in journalism", "Ethics in AI journalism", "News verification AI",
"personalization AI journalism", "AI-driven case studies in media". Se utilizaron operadores booleanos
para refinar la búsqueda y combinar términos como "AND" y "OR".

Los filtros de búsqueda también se ajustaron para limitar la selección de artículos a aquellos que
incluyeran estudios de caso específicos y enfoques recientes sobre habilidades y competencias en IA
para periodistas.

Proceso de Selección

Siguiendo los lineamientos PRISMA, se realizó una selección en cuatro etapas para asegurar la
transparencia y reproducibilidad del proceso:

Identificación: Se recopilaron un total de 935 artículos de las bases de datos seleccionadas.

Tamizaje: Se eliminaron duplicados (245 artículos) y se revisaron títulos y resúmenes, descartando
312 artículos que no cumplían con los criterios de inclusión.

Elegibilidad: Se realizó una lectura completa de los 378 artículos restantes, evaluando su relevancia y
profundidad en relación con los objetivos del estudio y los casos de uso de IA en medios.

Inclusión: Finalmente, se seleccionaron 89 artículos que cumplían con los criterios de calidad,
actualidad y pertinencia, incluyendo estudios de caso específicos y análisis recientes de competencias
periodísticas en IA.

Extracción y Análisis de Datos

Se desarrolló una ficha estandarizada para registrar la información clave de cada artículo, incluyendo:

Detalles bibliográficos: Autor, año de publicación, título y revista.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1127.

Objetivos y alcance: Enfoque en IA aplicada al periodismo, ya sea en innovación, ética, colaboración o
estudios de caso prácticos.

Metodología: Tipo de estudio (teórico, empírico, revisión), técnicas de análisis, y datos utilizados.

Hallazgos y contribuciones: Con énfasis en cómo los estudios recientes presentan aplicaciones
prácticas de la IA, los cambios en las habilidades requeridas en el periodismo y los desafíos éticos
detectados.

Una vez extraídos los datos, se organizaron en una base para facilitar el análisis sistemático y permitir
la identificación de temas y tendencias comunes, además de discrepancias o vacíos en la literatura.

Categorías de Análisis

Se definieron cuatro categorías principales de análisis, alineadas con los objetivos del estudio y las
observaciones recientes en la literatura:

Innovación en IA para el Periodismo: Incluye estudios que analizan los avances en generación
automatizada de contenidos, personalización de noticias y uso de IA en análisis de grandes volúmenes
de datos. Aquí se incorporan estudios de caso de medios que ya han implementado IA en sus procesos.

Ética en el Uso de IA en la Creación de Contenidos: Evalúa los dilemas éticos relacionados con la
transparencia algorítmica, el sesgo y la responsabilidad en contenidos generados automáticamente.

Colaboración en la Verificación de Noticias: Examina el uso de IA en la verificación de hechos y la
detección de desinformación, en colaboración con periodistas humanos.

Impacto de la IA en el Rol y Habilidades del Periodista: Analiza los cambios en el perfil profesional del
periodista en un entorno de IA, incluyendo las competencias técnicas necesarias y las oportunidades
emergentes para los periodistas en roles de supervisión y análisis crítico.

Síntesis de Resultados

Se adoptó un enfoque cualitativo para la síntesis de los resultados, organizando los hallazgos de cada
categoría de análisis. Este enfoque permitió identificar y resaltar casos específicos de éxito en la
implementación de IA en medios, además de los requisitos técnicos y éticos necesarios para una
adopción responsable de la IA en el periodismo.

Limitaciones del Estudio

El enfoque en literatura reciente y en casos específicos de IA en medios de comunicación implica
algunas limitaciones. Algunos estudios de pago y artículos en idiomas diferentes al inglés y español
pueden haber sido excluidos, lo que podría limitar el alcance de la revisión. Además, dado el rápido
avance de la IA, algunos estudios podrían haber quedado obsoletos, subrayando la necesidad de una
actualización continua de esta revisión.

Reproducibilidad y Transparencia

Para asegurar la reproducibilidad, se incluye un diagrama de flujo PRISMA detallado que resume las
etapas de selección y filtrado de los artículos. También se incluye un anexo con la lista completa de
estudios seleccionados, incluyendo estudios de caso específicos de medios de comunicación,
permitiendo que futuros investigadores repliquen o amplíen esta revisión con investigaciones
adicionales sobre IA en el periodismo.

RESULTADOS Y DISCUSIÓN



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1128.

A continuación, se presentan los resultados de la revisión de la literatura, organizados en tres
categorías principales: innovación en la inteligencia artificial (IA) para el periodismo, ética en el uso de
IA en la creación de contenidos, y colaboración en la verificación de noticias. Cada sección discute en
profundidad los hallazgos teóricos más relevantes para cada categoría, brindando una base para
entender el impacto de la IA en la práctica periodística y los desafíos emergentes.

Innovación en IA para el Periodismo

Tabla 1

Principales Hallazgos de la Categoría: Innovación en IA para el Periodismo

Aspecto Descripción Referencias
Automatización de
Contenidos

La IA permite la generación automatizada de
artículos básicos en áreas como deportes, finanzas
y clima, aumentando la eficiencia de los medios.

Graefe, 2016;
Carlson, 2018

Periodismo de Datos El uso de IA para analizar bases de datos permite
descubrir patrones ocultos y tendencias,
impulsando el periodismo de datos en temas de
interés público.

Hermida, 2012;
Diakopoulos &
Koliska, 2017

Análisis de Grandes
Volúmenes de Datos

Los algoritmos de aprendizaje automático permiten
la recolección y análisis de grandes volúmenes de
datos, agilizando investigaciones complejas.

Diakopoulos, 2019;
Tandoc et al., 2020

Personalización de
Noticias

La IA personaliza el contenido que se muestra a
cada usuario según sus preferencias, mejorando la
experiencia del lector y fomentando su fidelidad.

Nielsen & Ganter,
2017

Limitaciones y
Riesgos de la IA

La IA carece de capacidad crítica y contextual, lo
que limita su aplicación en temas complejos y
aumenta el riesgo de errores y pérdida de empleo
en el sector periodístico.

Lewis et al., 2019;
Schwab, 201


Fuente: elaboración propia.

La innovación en IA ha transformado diversos aspectos del periodismo, desde la generación
automatizada de contenidos hasta el análisis de datos en tiempo real para detectar tendencias
informativas. Esta capacidad tecnológica de la IA facilita la automatización de tareas repetitivas,
permitiendo a los periodistas concentrarse en análisis más profundos y en la creación de contenido de
alto valor agregado (Carlson, 2018). La creación automatizada de contenido, conocida también como
“periodismo robot”, ha ganado popularidad en áreas como los deportes, las finanzas y las noticias
meteorológicas, donde las noticias dependen en gran medida de datos estructurados y patrones
previsibles (Graefe, 2016). Además, herramientas como los generadores de lenguaje natural, por
ejemplo, el GPT-3 de OpenAI, han demostrado una capacidad creciente para producir textos en
diferentes estilos, adaptándose a una variedad de contextos periodísticos (Brown et al., 2020).

Sin embargo, esta capacidad de la IA para crear contenido periodístico plantea cuestionamientos en
cuanto a la originalidad y calidad de la información. Algunos estudios sugieren que, aunque la IA puede
generar textos básicos de manera eficiente, su capacidad para crear contenidos analíticos o narrativos
complejos sigue siendo limitada (Lewis et al., 2019). La falta de contexto y de una visión crítica por
parte de la IA hace que el contenido automatizado sea útil en áreas donde la información es meramente
factual, pero deficiente en temas que requieren interpretación o análisis social profundo (Diakopoulos,
2019). Asimismo, se ha argumentado que la automatización de noticias puede reducir el empleo en
áreas donde las tareas se pueden delegar a máquinas, desplazando así a los periodistas de tareas que
tradicionalmente les corresponden (Schwab, 2016). Este cambio podría impactar negativamente en el



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1129.

ecosistema laboral del periodismo y limitar la capacidad de los medios para fomentar la diversidad en
los enfoques informativos.

La capacidad de la IA para analizar grandes volúmenes de datos también ha fomentado el desarrollo
del periodismo de datos, facilitando el descubrimiento de historias ocultas y la identificación de
tendencias en temas de interés público (Hermida, 2012). Por ejemplo, algoritmos de aprendizaje
automático permiten analizar miles de datos en minutos, ayudando a los periodistas a identificar
patrones de conducta en temas como política, economía y salud (Diakopoulos & Koliska, 2017). La IA
puede extraer información valiosa de bases de datos extensas, reduciendo el tiempo necesario para
realizar investigaciones complejas y apoyando el desarrollo de reportajes basados en datos concretos.
Sin embargo, el uso de la IA en el análisis de datos plantea desafíos técnicos, ya que requiere personal
capacitado para manejar y supervisar el software, así como conocimientos de estadística y
metodologías de investigación (Tandoc et al., 2020).

Por último, la innovación de la IA en el periodismo no se limita a la creación de contenidos y el análisis
de datos; también incluye mejoras en la experiencia del usuario, como la personalización de noticias
(Nielsen & Ganter, 2017). Gracias a algoritmos de recomendación, los medios pueden ofrecer
contenidos adaptados a los intereses específicos de cada usuario, aumentando la satisfacción de la
audiencia y fomentando la fidelidad de los lectores. Sin embargo, este enfoque también plantea el
riesgo de crear “burbujas de filtro” donde los usuarios solo ven contenido que refuerza sus opiniones
preexistentes, limitando su exposición a una diversidad de perspectivas (Pariser, 2011).

Ética en el Uso de IA en la Creación de Contenidos

Tabla 2

Principales Hallazgos de la Categoría: Ética en el Uso de IA en la Creación de Contenidos

Aspecto Descripción Referencias
Transparencia
Algorítmica

La falta de transparencia en los algoritmos utilizados en
IA genera dudas sobre la objetividad y equidad en la
selección y presentación de noticias, lo que afecta la
confianza en los medios.

Pasquale, 2015;
Ananny &
Crawford, 2018

Sesgo
Algorítmico

Los algoritmos pueden perpetuar sesgos existentes al
ser entrenados en datos con prejuicios, afectando la
imparcialidad en temas de género, raza, y otros
aspectos sociales.

Noble, 2018;
Zamith, 2019

Responsabilidad
en Creación de
Contenidos

La creación de contenidos por IA plantea interrogantes
sobre quién es responsable de la precisión y veracidad
del contenido automatizado, lo que implica desafíos
éticos y legales.

Diakopoulos, 2019;
Napoli, 2019

Desinformación y
Verificación de
Hechos

La IA facilita la detección de noticias falsas, pero la
intervención humana es esencial para asegurar la
precisión y contexto en la verificación.

Shu et al., 2017;
Thurman et al.,
2019

Impacto en la
Confianza del
Público

La implementación ética de IA en la verificación de
noticias ayuda a mejorar la confianza del público, al
combinar transparencia en la tecnología y el juicio
crítico de periodistas.

Lewis, 2019;
Ananny &
Crawford, 2


Fuente: elaboración propia.

La ética es uno de los temas más debatidos en el uso de la IA en el periodismo, especialmente en
términos de transparencia, equidad y responsabilidad. La falta de transparencia en los algoritmos
utilizados por las herramientas de IA es uno de los principales problemas éticos, ya que el público



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1130.

generalmente desconoce cómo se seleccionan y presentan las noticias que consumen (Pasquale,
2015). Este fenómeno, conocido como la "caja negra algorítmica", implica que los procesos de
selección y priorización de contenidos en los medios de comunicación puedan estar sesgados sin que
la audiencia sea consciente de ello (Ananny & Crawford, 2018). La ética en el periodismo de IA exige
una mayor rendición de cuentas por parte de los desarrolladores y los medios de comunicación para
garantizar que las decisiones automatizadas se realicen de manera justa y no perpetúen sesgos
preexistentes en la sociedad (Binns, 2018).

Otro aspecto ético crucial es el riesgo de sesgo algorítmico. Los algoritmos de IA aprenden de los datos
que se les proporcionan, y si estos datos contienen sesgos implícitos, los algoritmos pueden perpetuar
o amplificar dichos prejuicios en el contenido informativo (Noble, 2018). Esto es particularmente
problemático en temas sensibles, como la representación de minorías y la cobertura de temas raciales
y de género. Diversos estudios han mostrado cómo los sistemas de IA pueden reflejar prejuicios
inconscientes presentes en los datos, afectando la imparcialidad de las noticias generadas (Zamith,
2019). En este sentido, algunos académicos sugieren que los medios de comunicación deben
implementar prácticas de supervisión ética para evaluar continuamente los sistemas de IA y garantizar
que los contenidos publicados respeten los principios de equidad y justicia social (Montal & Reich,
2017).

La ética también juega un rol fundamental en la atribución de responsabilidad en la creación de
contenido automatizado. ¿Quién es responsable si una noticia generada por IA resulta ser falsa o
engañosa? Esta pregunta plantea desafíos legales y éticos para los medios de comunicación, ya que
el uso de IA en la redacción de noticias no elimina la responsabilidad editorial (Diakopoulos, 2019).
Algunos expertos sugieren que, para evitar problemas éticos, las noticias generadas por IA deben ir
acompañadas de una declaración que indique que fueron creadas o asistidas por algoritmos,
garantizando así que la audiencia sea consciente del origen de la información (Napoli, 2019). La
implementación de prácticas de transparencia no solo fortalece la confianza del público, sino que
también ayuda a evitar posibles malentendidos sobre la procedencia y exactitud de las noticias.

Finalmente, el uso de la IA en la verificación de hechos también enfrenta desafíos éticos. La capacidad
de los algoritmos para identificar patrones de desinformación y detectar posibles noticias falsas es
valiosa para el periodismo, pero plantea preguntas sobre la autonomía de la IA y el control editorial que
debe ejercer el periodista humano (Shu et al., 2017). Aunque la IA puede ayudar a detectar
desinformación de manera eficiente, la responsabilidad final recae en los editores y periodistas para
decidir qué información se publica y cómo se presenta. Esto subraya la importancia de una
colaboración ética entre humanos y máquinas, donde los periodistas supervisen y validen el trabajo
realizado por la IA para evitar posibles errores y proteger la integridad informativa (Hermida, 2012).






Colaboración en la Verificación de Noticias

Tabla 3

Principales Hallazgos de la Categoría: Colaboración en la Verificación de Noticias



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1131.

Aspecto Descripción Referencias
Colaboración Humano-
Máquina en Verificación

La colaboración entre periodistas y sistemas de
IA mejora la eficiencia en la verificación de
noticias, combinando la precisión de los
algoritmos con el juicio crítico de los humanos.

Vosoughi et al.,
2018; Thurman et
al., 2019

Detección de
Desinformación

La IA permite detectar patrones de
desinformación en redes sociales y otros canales
digitales, generando alertas tempranas sobre
posibles noticias falsas.

Shu et al., 2017

Herramientas de IA para
Verificación de
Imágenes y Videos

Los algoritmos de IA ayudan a identificar
manipulación en imágenes y videos, facilitando el
trabajo de verificación en temas visuales y
multimedia.

Carlson, 2018;
Diakopoulos, 2019

Intervención Humana en
el Proceso de
Verificación

Aunque la IA puede detectar y analizar
información falsa, la intervención humana es
esencial para interpretar el contexto y asegurar la
precisión en la verificación.

Hermida, 2012;
Lewis, 2019

Transparencia en el
Proceso de Verificación

La transparencia en el uso de IA para verificación
mejora la confianza del público, permitiendo que
la audiencia comprenda cómo se asegura la
precisión en las noticias.

Ananny &
Crawford, 2018;
Pasquale, 2015


Fuente: elaboración propia.

La colaboración entre periodistas y sistemas de IA ha demostrado ser eficaz en la verificación de
noticias y en la lucha contra la desinformación. La capacidad de la IA para analizar grandes volúmenes
de información y detectar patrones sospechosos la convierte en una herramienta valiosa en la
identificación de noticias falsas y en la corroboración de hechos (Vosoughi et al., 2018). Sin embargo,
la IA por sí sola no es infalible y puede cometer errores al clasificar información o al no captar matices
culturales y contextuales. En este sentido, la colaboración humana es crucial para validar los hallazgos
generados por los sistemas de IA y asegurar que las noticias publicadas sean precisas y confiables
(Thurman et al., 2019).

Algunas organizaciones de noticias han comenzado a integrar sistemas de verificación de IA en sus
procesos editoriales, lo que ha mejorado la eficiencia en la detección de desinformación. Herramientas
como los algoritmos de aprendizaje profundo pueden detectar manipulación en imágenes y videos, así
como identificar patrones textuales comunes en noticias falsas (Shu et al., 2017). Estas herramientas
permiten que los periodistas concentren sus esfuerzos en el análisis de información compleja,
mientras que la IA realiza la primera etapa de verificación. Sin embargo, la efectividad de esta
colaboración depende de la capacidad de los periodistas para entender y manejar las herramientas de
IA, así como de la precisión de los algoritmos utilizados (Carlson, 2018).

La verificación de noticias impulsada por IA también puede mejorar la confianza del público en los
medios de comunicación. Al combinar la velocidad y eficiencia de la IA con la experiencia y juicio crítico
de los periodistas, los medios pueden ofrecer una cobertura informativa más confiable y precisa
(Lewis, 2019). Además, la transparencia en el uso de IA para la verificación de noticias permite que la
audiencia comprenda cómo se asegura la exactitud de la información, fortaleciendo la relación entre
los medios y el público (Ananny & Crawford, 2018). Sin embargo, algunos críticos advierten que, si no
se implementa de manera adecuada, la verificación automatizada podría generar un exceso de
confianza en los algoritmos, lo que podría llevar a errores de juicio en la evaluación de ciertos
contenidos (Pasquale, 2015).



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1132.

Los resultados muestran que la IA ofrece herramientas valiosas para el periodismo en la generación,
verificación y personalización de contenidos, pero también plantea desafíos éticos y técnicos que
requieren una supervisión constante. La colaboración entre periodistas y sistemas de IA permite
aprovechar las ventajas de ambas partes, mejorando la precisión y velocidad de la cobertura
informativa. No obstante, para que esta colaboración sea efectiva y ética, es fundamental que los
periodistas mantengan un rol activo en la supervisión de la IA y que las organizaciones de medios
implementen prácticas de transparencia y responsabilidad.

Estudios de Caso: Aplicaciones Prácticas de la IA en Medios de Comunicación

La implementación de inteligencia artificial (IA) en los medios de comunicación ha permitido a varias
organizaciones optimizar sus procesos, mejorar la personalización de contenido y fortalecer la
verificación de noticias. A continuación, se presentan cinco casos específicos de medios que han
adoptado tecnologías de IA de manera innovadora, explorando tanto los éxitos obtenidos como los
desafíos enfrentados y las lecciones aprendidas en el proceso.

The Washington Post: Heliograf

The Washington Post desarrolló un sistema de IA llamado Heliograf, que permite la generación
automática de noticias, principalmente en coberturas de eventos recurrentes como deportes,
elecciones y noticias de última hora. Heliograf es capaz de redactar artículos breves y directos,
ofreciendo una cobertura rápida y precisa de eventos con gran cantidad de datos estructurados
(Washington Post, 2016).

Éxitos: Heliograf ha logrado una eficiencia notable en la generación de contenido, liberando a los
periodistas de tareas repetitivas para que puedan enfocarse en reportajes más profundos y analíticos.
Durante las elecciones de 2016 en Estados Unidos, Heliograf publicó más de 500 artículos
automatizados, manteniendo a la audiencia informada en tiempo real y aumentando significativamente
la cobertura sin requerir más recursos humanos.

Desafíos: Uno de los desafíos es la limitación de Heliograf en términos de análisis crítico. La IA puede
generar reportes factuales, pero carece de la capacidad de interpretación y contexto que los periodistas
humanos aportan, lo que restringe su aplicación a ciertos tipos de noticias.

Lecciones aprendidas: La automatización de noticias puede ser una herramienta poderosa para la
cobertura en tiempo real, pero no sustituye el análisis humano. La IA es más efectiva cuando se emplea
en conjunto con periodistas, quienes aportan el contexto y la profundidad que la audiencia necesita en
temas complejos.

Associated Press: Automatización de Noticias Financieras

Associated Press (AP) ha sido pionera en el uso de IA para automatizar la cobertura de reportes
financieros y de ganancias de empresas. Utilizando la tecnología de la empresa Automated Insights,
AP ha automatizado la redacción de artículos financieros basados en datos proporcionados por
empresas, generando miles de reportes trimestrales de ganancias sin intervención humana
(Automated Insights, 2017).

Éxitos: La automatización en AP ha permitido que la agencia amplíe significativamente su cobertura
en temas financieros, ofreciendo un volumen de reportajes que sería imposible de lograr manualmente.
Además, ha reducido los errores humanos en la transcripción y redacción de datos, mejorando la
precisión y consistencia de los reportes.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1133.

Desafíos: Aunque la automatización ha sido efectiva en noticias financieras, existen limitaciones
cuando se trata de análisis económico profundo o reportajes que requieren una evaluación crítica de
los datos. La dependencia de datos proporcionados directamente por las empresas puede también
influir en la objetividad de los reportes.

Lecciones aprendidas: La automatización es altamente eficiente para reportes estructurados y
repetitivos, pero la objetividad y profundidad en el análisis siguen siendo áreas en las que los
periodistas humanos son esenciales. La supervisión editorial sigue siendo necesaria para garantizar
que los contenidos generados sean precisos y objetivos.

Reuters: Verificación de Hechos con News Tracer

Reuters utiliza una herramienta de IA llamada News Tracer, diseñada para verificar la autenticidad de
noticias en redes sociales. News Tracer monitorea Twitter y utiliza algoritmos de aprendizaje
automático para evaluar la veracidad de las noticias, identificando fuentes confiables y señalando
posibles alertas de desinformación (Reuters, 2017).

Éxitos: News Tracer ha permitido a Reuters detectar noticias de última hora en redes sociales y verificar
rápidamente su autenticidad, lo que mejora la rapidez y precisión en la cobertura informativa. Esta
herramienta ha sido particularmente útil en situaciones de crisis o eventos inesperados, donde la
información circula rápidamente y es crucial distinguir entre noticias reales y rumores.

Desafíos: Uno de los desafíos es la dificultad para evaluar el contexto de los tweets, lo que puede llevar
a interpretaciones erróneas. Además, la herramienta depende de datos disponibles en redes sociales,
lo que puede limitar su efectividad en temas que no tengan suficiente representación en estas
plataformas.

Lecciones aprendidas: La verificación automatizada en redes sociales es valiosa para manejar la
velocidad de la información en línea, pero la supervisión humana sigue siendo necesaria para evaluar
el contexto y asegurar la precisión. La IA es eficaz como filtro preliminar, pero los periodistas deben
intervenir para confirmar la autenticidad de la información.

Bloomberg: Cyborg en el Periodismo Financiero

Bloomberg utiliza una herramienta de IA llamada Cyborg para asistir en la redacción de noticias
financieras, especialmente en el análisis de resultados financieros y reportes de ganancias de
empresas. Cyborg combina algoritmos de procesamiento de lenguaje natural con datos en tiempo real,
permitiendo a Bloomberg producir noticias financieras con una alta precisión y rapidez (Bloomberg,
2018).

Éxitos: Cyborg ha permitido a Bloomberg mantenerse como líder en la cobertura de noticias
financieras, proporcionando información inmediata y confiable a sus lectores. La IA ha mejorado la
eficiencia en la redacción de reportes y permite a los periodistas concentrarse en análisis más
complejos y detallados.

Desafíos: La IA de Bloomberg es altamente efectiva para reportes de datos financieros, pero se
enfrenta a limitaciones en la interpretación de datos que requieren un análisis subjetivo o una
valoración crítica. Además, existe una dependencia de datos estructurados que, si son incorrectos,
pueden afectar la precisión de las noticias.

Lecciones aprendidas: Las herramientas de IA son efectivas para automatizar reportes basados en
datos estructurados, pero es importante complementar estos sistemas con una revisión editorial para
garantizar la precisión y evitar errores por dependencia de datos sin verificación humana.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1134.

BBC: IA para Personalización de Contenidos

La BBC ha implementado IA para personalizar el contenido que se muestra a sus usuarios en su
plataforma digital, ajustando las noticias y recomendaciones según las preferencias de cada usuario.
Utilizando algoritmos de aprendizaje automático, la BBC busca mejorar la experiencia del usuario y
aumentar su fidelidad a la plataforma (BBC, 2019).

Éxitos: La personalización ha permitido a la BBC mejorar la interacción de los usuarios, brindando un
contenido más relevante y mejorando la satisfacción del público. Esta estrategia ha ayudado a
aumentar la retención de usuarios en su plataforma y ha fortalecido su relación con la audiencia.

Desafíos: Uno de los principales desafíos es el riesgo de crear “burbujas de filtro”, donde los usuarios
solo reciben información que refuerza sus puntos de vista existentes, limitando su exposición a
perspectivas diversas. Además, existe el reto de balancear la personalización sin comprometer la
integridad editorial y la variedad informativa.

Lecciones aprendidas: La personalización es una herramienta efectiva para mejorar la experiencia del
usuario, pero los medios deben implementar estrategias para asegurar que la audiencia tenga acceso
a una variedad de temas y perspectivas, evitando la creación de cámaras de eco o filtros informativos.

Estos estudios de caso demuestran el potencial de la IA para mejorar la eficiencia, precisión y
personalización en el periodismo. Sin embargo, también destacan los desafíos inherentes a su
implementación, especialmente en términos de análisis crítico, contexto y objetividad. La lección
central es que la IA es una herramienta complementaria que potencia la labor del periodista, pero no
sustituye su rol esencial en la interpretación de la información y la preservación de la ética periodística.
Estos ejemplos refuerzan la importancia de una integración balanceada de la IA en los medios de
comunicación, en la cual los periodistas mantienen el control y supervisión de la tecnología para
asegurar que la información se presente de manera justa, precisa y relevante.

CONCLUSIÓN

La introducción de la inteligencia artificial (IA) en el periodismo representa un cambio de paradigma en
la manera en que los medios de comunicación crean, distribuyen y verifican contenidos. Como se ha
discutido a lo largo de este artículo, la IA ofrece una gama de posibilidades que pueden potenciar
significativamente el alcance y la precisión del periodismo, a la vez que plantea desafíos éticos,
profesionales y técnicos que requieren un enfoque equilibrado. En este contexto, se presentan las
conclusiones principales que abarcan las áreas de innovación, ética y colaboración en la verificación
de información.

Innovación en IA para el Periodismo: Impulso y Limitaciones

La IA ha permitido que los medios de comunicación amplíen sus capacidades en la generación
automatizada de contenidos y en el análisis de grandes volúmenes de datos, transformando tareas
que tradicionalmente requerían intervención humana. Herramientas de procesamiento de lenguaje
natural, como GPT-3, han demostrado ser eficientes en la creación de reportes automáticos en áreas
de contenido estructurado, como deportes y finanzas (Brown et al., 2020). Además, el periodismo de
datos se ha visto potenciado gracias a la IA, ya que los algoritmos de aprendizaje automático pueden
identificar patrones y tendencias en bases de datos extensas, generando un valor informativo relevante
y apoyando el desarrollo de investigaciones complejas (Diakopoulos & Koliska, 2017).

No obstante, las limitaciones inherentes a la IA subrayan la necesidad de un enfoque cauteloso. A pesar
de su eficiencia, la IA carece de una comprensión crítica y contextual, elementos esenciales para el
análisis y la interpretación profunda que los periodistas experimentados aportan a sus reportajes



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1135.

(Lewis et al., 2019). Este aspecto es particularmente importante en temas de interés público que
requieren análisis complejos y un juicio ético que las máquinas no pueden replicar. De hecho, se corre
el riesgo de que el periodismo dependa en exceso de la IA para tareas que, aunque automatizables,
pueden reducir la calidad y profundidad de la cobertura informativa si no cuentan con supervisión
humana (Schwab, 2016). Esta limitación plantea la necesidad de que las organizaciones de medios
mantengan un equilibrio entre la innovación tecnológica y la preservación de las habilidades
periodísticas críticas, particularmente en temas de investigación y análisis social.

Además, la personalización de noticias basada en IA, aunque representa una ventaja significativa para
aumentar la fidelidad de la audiencia, presenta el riesgo de fomentar burbujas de filtro que limitan la
exposición de los usuarios a una variedad de perspectivas (Pariser, 2011). Este fenómeno puede
resultar en un ecosistema informativo fragmentado, donde los usuarios sólo acceden a contenidos que
refuerzan sus ideas preexistentes. Los medios de comunicación deben abordar esta problemática con
responsabilidad, asegurando que las tecnologías de personalización no comprometan el derecho de la
audiencia a recibir una información diversa y balanceada.

Ética en el Uso de IA en la Creación de Contenidos: Transparencia y Responsabilidad

La ética en el uso de la IA en el periodismo es un aspecto fundamental para garantizar que esta
tecnología se utilice de manera justa y responsable. Uno de los mayores desafíos éticos es la falta de
transparencia en los algoritmos que determinan qué información se presenta al público. Esta “caja
negra” algorítmica plantea serias dudas sobre la equidad y objetividad de los sistemas de IA, ya que el
público desconoce los criterios que determinan la selección y priorización de las noticias (Pasquale,
2015). Para abordar esta problemática, es fundamental que los medios implementen prácticas de
transparencia en el uso de IA, permitiendo que la audiencia conozca cómo se toman las decisiones
informativas y fomentando una cultura de rendición de cuentas (Ananny & Crawford, 2018).

El sesgo algorítmico es otra preocupación ética importante. Los algoritmos de IA aprenden de datos
históricos, lo que significa que pueden perpetuar o amplificar prejuicios y estereotipos presentes en
los datos de entrenamiento (Noble, 2018). Este problema se agrava en temas sensibles como la
representación de minorías y la cobertura de temas de género o raciales. Para mitigar estos riesgos,
las organizaciones de medios deben adoptar una supervisión constante de los sistemas de IA y
establecer mecanismos de auditoría que permitan identificar y corregir posibles sesgos. Además, es
crucial que los desarrolladores y periodistas colaboren para garantizar que los sistemas de IA se
diseñen y utilicen de manera que respeten los principios de imparcialidad y equidad.

La responsabilidad en la creación de contenidos automatizados es otro aspecto ético crítico. La IA
facilita la generación de noticias, pero también plantea la pregunta sobre quién es responsable en caso
de que una noticia automatizada resulte falsa o errónea (Diakopoulos, 2019). En este sentido, se
recomienda que las organizaciones de medios implementan directrices éticas claras que definan la
responsabilidad editorial en el contexto de la IA, y que incluyan mecanismos de validación que permitan
verificar la exactitud de los contenidos generados automáticamente. La implementación de estas
directrices fortalecerá la confianza de la audiencia en los medios y evitará malentendidos o daños a la
reputación de las organizaciones periodísticas.

Por último, el uso de IA en la verificación de hechos ofrece oportunidades valiosas para reducir la
difusión de desinformación, pero también plantea desafíos éticos relacionados con la autonomía y
control de la IA. Aunque la IA puede detectar patrones de desinformación con rapidez, la verificación
de hechos requiere de un análisis contextual y crítico que solo los periodistas humanos pueden
proporcionar (Hermida, 2012). La colaboración entre periodistas y sistemas de IA es esencial para que
la tecnología pueda cumplir su función sin comprometer la precisión ni la ética en el proceso de
verificación.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1136.

Colaboración en la Verificación de Noticias: Sinergia entre Humanos y Máquinas

La IA ha mostrado ser una herramienta poderosa en la verificación de noticias y en la lucha contra la
desinformación, permitiendo a los periodistas detectar rápidamente posibles noticias falsas y realizar
un análisis preliminar de grandes volúmenes de datos (Vosoughi et al., 2018). La colaboración entre
periodistas y sistemas de IA representa un modelo de trabajo conjunto en el que las fortalezas de
ambos se combinan para mejorar la precisión y rapidez en la difusión de noticias. Los algoritmos de
IA, por ejemplo, son capaces de identificar patrones y señales que podrían pasar desapercibidos para
los humanos, como el uso repetido de ciertos términos o frases en redes sociales que son comunes
en la desinformación (Shu et al., 2017). Sin embargo, esta colaboración depende de la capacidad de
los periodistas para comprender y manejar las herramientas de IA, así como de la precisión y
confiabilidad de los algoritmos empleados.

La transparencia en el uso de IA en la verificación de noticias es un aspecto clave para fomentar la
confianza del público en los medios de comunicación. Al permitir que la audiencia conozca cómo se
verifica la información y cómo se emplea la IA para detectar desinformación, los medios pueden
fortalecer su relación con el público y mejorar la percepción de su credibilidad (Ananny & Crawford,
2018). Este enfoque requiere que las organizaciones de medios implementen políticas de
transparencia en el uso de IA y que capaciten a sus periodistas en el uso responsable y ético de estas
herramientas.

A pesar de sus ventajas, la verificación automatizada de noticias también presenta desafíos, ya que los
algoritmos de IA pueden cometer errores al clasificar información o al no captar matices culturales y
contextuales. La intervención humana sigue siendo crucial para garantizar la precisión y el contexto en
el proceso de verificación, asegurando que los contenidos publicados sean informativamente válidos
y éticamente responsables (Thurman et al., 2019). Este proceso de verificación conjunta entre
humanos y máquinas no solo permite una mayor eficiencia en la detección de desinformación, sino
que también subraya la importancia de mantener una supervisión humana activa en cada etapa del
proceso informativo.

Impacto de la IA en el Rol del Periodista

La transformación que la IA ha traído al periodismo no solo implica una evolución en las herramientas,
sino también una redefinición del rol profesional del periodista. A medida que la IA se convierte en una
parte integral de los procesos de creación y verificación de contenidos, se plantean nuevas
expectativas y habilidades para los periodistas.

Habilidades Técnicas y de Análisis de Datos

Con la introducción de la IA en los medios, los periodistas necesitan adquirir competencias en el
manejo de herramientas tecnológicas y en el análisis de datos. La alfabetización digital se convierte
en una habilidad básica, ya que los periodistas deben ser capaces de interactuar con herramientas de
IA para comprender cómo funcionan y cómo pueden ser aplicadas de manera efectiva (Diakopoulos,
2019). Además, se requiere una comprensión básica de algoritmos y estadísticas para interpretar
resultados generados por sistemas de IA y detectar posibles anomalías o sesgos en los datos.

Por ejemplo, el análisis de grandes volúmenes de datos permite a los periodistas descubrir patrones y
tendencias, una habilidad especialmente útil en el periodismo de datos (Lewis & Westlund, 2015). La
habilidad para trabajar con estos sistemas y hacer preguntas críticas sobre los resultados obtenidos
será fundamental para que los periodistas mantienen la precisión y objetividad en la información que
producen.

Rol de Supervisión y Control Ético



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1137.

La introducción de la IA en el periodismo plantea la necesidad de que los periodistas asuman un rol de
supervisión y control ético sobre los contenidos generados automáticamente. Si bien la IA puede
facilitar la generación de noticias y la verificación de hechos, la responsabilidad final sobre la precisión
y objetividad de la información recae en los periodistas (Montal & Reich, 2017). Los profesionales de
la comunicación deben ser capaces de evaluar y, si es necesario, corregir el trabajo realizado por los
algoritmos para asegurar que los contenidos cumplan con los estándares éticos del periodismo.

Esta supervisión también implica una comprensión de los riesgos asociados con la falta de
transparencia y el sesgo algorítmico. Los periodistas necesitan una formación ética sólida para
identificar y mitigar posibles sesgos en los contenidos generados por IA, asegurando así que la
tecnología no refuerce estereotipos o prejuicios existentes (Noble, 2018). Además, se espera que los
periodistas actúen como intermediarios de confianza, verificando que los contenidos automatizados
sean precisos y no afecten negativamente la percepción del público.

Enfoque en la Interpretación y Análisis Profundo

Mientras que la IA se ocupa de tareas repetitivas y de bajo nivel, el rol del periodista se orienta cada
vez más hacia la interpretación y el análisis profundo. La IA puede procesar y organizar datos, pero
carece de la sensibilidad cultural y social que los periodistas aportan en temas complejos. Los
profesionales de la comunicación deben enfocarse en proporcionar contexto, explorar las
implicaciones sociales de los eventos y analizar el significado más amplio detrás de los datos
(Hermida, 2012). Esta habilidad es esencial para diferenciar el contenido automatizado de los
reportajes que realmente impactan a la audiencia y que requieren una comprensión humana.

Además, a medida que los periodistas se centran más en el análisis profundo, también se abren nuevas
oportunidades para explorar historias y ángulos que pueden pasar desapercibidos para los algoritmos.
Esta capacidad de ir más allá de los datos y de ofrecer una interpretación única fortalece la función del
periodismo como herramienta para el cambio social y la comprensión pública (Lewis, 2019).

Oportunidades Emergentes y Adaptación al Cambio

La adopción de IA en el periodismo abre nuevas oportunidades de desarrollo profesional. Los
periodistas podrán desempeñar roles como gestores de proyectos de IA, analistas de datos o
supervisores de procesos automatizados, funciones que requieren una combinación de habilidades
técnicas, éticas y analíticas. Asimismo, el uso de IA brinda la posibilidad de desarrollar contenido
interactivo y personalizado, lo cual puede ayudar a los periodistas a conectar de forma más efectiva
con sus audiencias (Tandoc & Vos, 2020).

No obstante, esta evolución también implica un reto de adaptación. La rápida implementación de IA
exige que los periodistas se mantengan actualizados y dispuestos a aprender nuevas habilidades a lo
largo de su carrera. La capacitación continua y el aprendizaje adaptativo serán esenciales para que los
profesionales de la comunicación puedan aprovechar las oportunidades que la tecnología ofrece sin
perder su rol fundamental en la sociedad.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1138.

REFERENCIAS

Ananny, M., & Crawford, K. (2018). Seeing without knowing: Limitations of the transparency ideal and
its application to algorithmic accountability. New Media & Society, 20(3), 973-989.
https://doi.org/10.1177/1461444816676645

Automated Insights. (2017). Associated Press expands automated business news with Wordsmith.
https://automatedinsights.com/case-studies/associated-press

BBC. (2019). BBC personalisation: Using data and AI to create a more personal BBC.
https://www.bbc.co.uk/rd/projects/bbc-personalisation

Bijker, W. E., Hughes, T. P., & Pinch, T. (1987). The Social Construction of Technological Systems: New
Directions in the Sociology and History of Technology. MIT Press.

Binns, R. (2018). Fairness in machine learning: Lessons from political philosophy. In Proceedings of the
2018 Conference on Fairness, Accountability, and Transparency (pp. 149-159).
https://doi.org/10.1145/3287560.3287583

Bloomberg. (2018). Bloomberg Cyborg: A financial tool that helps journalists automate and produce
news faster. https://www.bloomberg.com

Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., Neelakantan, A., Shyam, P., Sastry,
G., Askell, A., Agarwal, S., Herbert-Voss, A., Krueger, G., Henighan, T., Child, R., Ramesh, A., Ziegler, D., …
Amodei, D. (2020). Language models are few-shot learners. In Advances in Neural Information
Processing Systems (Vol. 33, pp. 1877–1901).

Carlson, M. (2015). The robotic reporter: Automated journalism and the redefinition of labor,
compositional forms, and journalistic authority. Digital Journalism, 3(3), 416-431.
https://doi.org/10.1080/21670811.2014.976412

Carlson, M. (2018). The automation of journalism: A review of the trends and implications of automating
news. Journalism Practice, 12(4), 469-484. https://doi.org/10.1080/17512786.2017.1301549

Diakopoulos, N. (2019). Automating the news: How algorithms are rewriting the media. Harvard
University Press.

Diakopoulos, N., & Koliska, M. (2017). Algorithmic transparency in the news media. Digital Journalism,
5(7), 809-828. https://doi.org/10.1080/21670811.2016.1208053

Graefe, A. (2016). Guide to automated journalism. Tow Center for Digital Journalism.
https://academiccommons.columbia.edu/doi/10.7916/D8FJ2DWB

Gynnild, A. (2014). Journalism innovation leads to innovation journalism: The impact of computational
exploration on changing mindsets. Journalism, 15(6), 713-730.
https://doi.org/10.1177/1464884913495882

Hermida, A. (2012). Tweets and truth: Journalism as a discipline of collaborative verification.
Journalism Practice, 6(5-6), 659-668. https://doi.org/10.1080/17512786.2012.667269

Katz, E. (1959). Mass communications research and the study of popular culture: An editorial note on
a possible future for this journal. Studies in Public Communication, 2(1), 1-6.



LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.

ISSN en línea: 2789-3855, noviembre, 2024, Volumen V, Número 6 p 1139.

Lewin, K. (1947). Frontiers in group dynamics: Concept, method and reality in social science; social
equilibria and social change. Human Relations, 1(1), 5-41.
https://doi.org/10.1177/001872674700100103

Lewis, S. C. (2019). From journalism to information: The transformation of the epistemology of news.
Digital Journalism, 7(3), 293-313. https://doi.org/10.1080/21670811.2018.1504628

Lewis, S. C., & Westlund, O. (2015). Big data and journalism: Epistemology, expertise, economics, and
ethics. Digital Journalism, 3(3), 447-466. https://doi.org/10.1080/21670811.2014.976418

McCombs, M. E., & Shaw, D. L. (1972). The agenda-setting function of mass media. Public Opinion
Quarterly, 36(2), 176-187. https://doi.org/10.1086/267990

McLuhan, M. (1964). Understanding Media: The Extensions of Man. McGraw-Hill.

Montal, T., & Reich, Z. (2017). I, robot. You, journalist. Who is the author? Authorship, bylines and full
disclosure in automated journalism. Digital Journalism, 5(7), 829-849.
https://doi.org/10.1080/21670811.2016.1209083

Napoli, P. M. (2019). Social media and the public interest: Governance of news platforms in the realm
of individual and societal values. Telecommunications Policy, 43(1), 49-58.
https://doi.org/10.1016/j.telpol.2018.06.003

Noble, S. U. (2018). Algorithms of oppression: How search engines reinforce racism. NYU Press.

Pariser, E. (2011). The filter bubble: How the new personalized web is changing what we read and how
we think. Penguin Press.

Pasquale, F. (2015). The Black Box Society: The secret algorithms that control money and information.
Harvard University Press.

Reuters. (2017). Reuters News Tracer: AI-driven tool for finding breaking news on Twitter.
https://www.reuters.com

Schwab, K. (2016). The fourth industrial revolution. World Economic Forum.

Shu, K., Sliva, A., Wang, S., Tang, J., & Liu, H. (2017). Fake news detection on social media: A data mining
perspective. SIGKDD Explorations, 19(1), 22-36. https://doi.org/10.1145/3137597.3137600

Tandoc, E. C., & Vos, T. P. (2020). The journalist is dead, long live the journalist: Why journalists ought
to counter automation. Journalism Studies, 21(12), 1783-1796.
https://doi.org/10.1080/1461670X.2020.1784185

Vosoughi, S., Roy, D., & Aral, S. (2018). The spread of true and false news online. Science, 359(6380),
1146-1151. https://doi.org/10.1126/science.aap9559

Washington Post. (2024). Heliograf: The Washington Post's AI-powered bot for automated news
generation. https://www.washingtonpost.com



Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, publicados en
este sitio está disponibles bajo Licencia Creative Commons .