LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1773.
DOI: https://doi.org/10.56712/latam.v6i4.4396
La inteligencia artificial como trasunto del logos
Artificial intelligence as an emulation of the logos
Citlaly Aguilar Campos
citlaly.aguilar@politicas.unam.mx
https://orcid.org/0009-0001-4736-072X
Universidad Nacional Autónoma de México
Ciudad de México – México
Artículo recibido: 28 de junio de 2025. Aceptado para publicación: 25 de agosto de 2025.
Conflictos de Interés: Ninguno que declarar.
Resumen
La inteligencia artificial (IA) tiene una creciente presencia en nuestras vidas, se integra
progresivamente en diversas actividades mediante la automatización de procesos. Esta expansión
suscita un debate sobre sus ventajas y riesgos, especialmente por la creciente delegación de tareas
en la IA, lo que la posiciona como una posible panacea tecnológica. El objetivo del ensayo es explorar
cómo la IA ha comenzado a operar como un trasunto del logos, al actuar como una fuente de
conocimiento con estructura lógico-racional. Esta confianza casi irrestricta en su funcionamiento
puede generar consecuencias desfavorables como desinformación, desplazamiento de agentes
humanos y dependencia. El logos, entendido como principio racional del saber y del lenguaje, ha sido
filosóficamente concebido como el fundamento del conocimiento. Parménides lo describe como
aquello que unifica y permite acceder a la verdad. De forma análoga, la IA se configura como una
herramienta que soluciona y reconforta, cuya información suele aceptarse sin reservas, como si
estuviera dotada de un raciocinio infalible. Se abordarán conceptos como aletheia, definida como la
verdad que los humanos buscan aprehender para dar sentido al mundo, y semiosis, como el proceso
mediante el cual los signos se vinculan generando significados. Asimismo, se recurre a la teoría del
actor-red para comprender la relación entre humanos y tecnologías como un continuum de sentido. El
aparato crítico se nutre de autores como Éric Sadin, Paulina Rivero, Peirce, Bruno Latour y Yuval Harari,
con el fin de pensar cómo el logos filosófico adquiere hoy una forma maquínica, encarnada en la
inteligencia artificial.
Palabras clave: inteligencia artificial, logos, aletheia, semiosis, tecnología
Abstract
Artificial intelligence (AI) has a growing presence in our lives, progressively integrating into various
activities through the automation of processes. This expansion has sparked debate regarding its
advantages and risks, particularly due to the increasing delegation of tasks to AI, positioning it as a
potential technological panacea. The aim of this essay is to explore how AI has begun to operate as
an emulation of the logos, acting as a source of knowledge with a logical-rational structure. This near-
unrestricted trust in its performance may lead to unfavorable consequences such as misinformation,
the displacement of human agents, and dependency. The logos, understood as the rational principle
of knowledge and language, has been philosophically conceived as the foundation of understanding.
Parmenides described it as that which unifies and grants access to truth. Similarly, AI is configured as
a tool that offers solutions and reassurance, whose outputs are often accepted without question, as if
it were endowed with infallible reasoning. Concepts such as aletheia, understood as the truth humans
seek to apprehend in order to make sense of the world, and semiosis, the process by which signs are
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1774.
linked to generate meaning, will be addressed. Additionally, actor-network theory is employed to
understand the relationship between humans and technologies as a continuum of meaning. The
critical framework draws on authors such as Éric Sadin, Paulina Rivero, Peirce, Bruno Latour, and Yuval
Harari to reflect on how the philosophical logos now take on a machinic form, embodied in artificial
intelligence.
Keywords: artificial intelligence, logos, aletheia, semiosis, technology
Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades,
publicado en este sitio está disponibles bajo Licencia Creative Commons.
Cómo citar: Aguilar Campos, C. (2025). La inteligencia artificial como trasunto del logos. LATAM
Revista Latinoamericana de Ciencias Sociales y Humanidades 6 (4), 1173 – 1784.
https://doi.org/10.56712/latam.v6i4.4396
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1775.
INTRODUCCIÓN
Nuestro contacto con la inteligencia artificial (IA) se ha ido normalizando, esto debido a que forma
parte de numerosos procesos que nos son útiles y necesarios, como puede ser un GPS, una app
bancaria, una consulta en línea, un trámite administrativo o ver algún contenido en streaming.
La inteligencia artificial (IA) se ha observado como tecnología exponencial (Sadin, 2020) y emerge
como respuesta a la optimización de actividades humanas que se han visto rebasadas ante la
sobreproducción de información. Se requiere gestionar con eficacia el cúmulo de datos que movilizan
a los grupos sociales a nivel mundial. Además, colabora en un aprovechamiento de recursos
tecnológicos y conceptuales, dando un empuje a la toma de decisiones en diferentes niveles.
Este panorama ha favorecido que la IA sea vista por muchos como una panacea contemporánea, capaz
de ofrecer soluciones inmediatas y eficaces a las problemáticas más variadas, desde las más triviales
hasta las más complejas, lo que ha incrementado una confianza casi irrestricta en sus capacidades.
El objetivo de este ensayo es exponer cómo la inteligencia artificial se ha volcado a través de su uso y
configuración, como una emulación del logos, entendiendo este como un principio ontológico que
contiene la razón y el lenguaje.
De manera análoga a como Parménides definía el logos como aquello que brinda unidad a las cosas y
constituye el único camino hacia la verdad, la IA se erige como una herramienta cuya lógica interna
promete ofrecer respuestas racionales y estructuradas ante el caos del mundo contemporáneo.
La IA se está perfilando a ser una especie de dispositivo prodigioso que resuelve —en apariencia— de
manera rápida y profesional nuestras peticiones, desde la más sencilla hasta la más intrincada. Solo
basta dar un comando para que obtengamos un resultado. Lo que se está comprometiendo aquí es la
credulidad en la información, y la delegación cómoda en la toma de decisiones y ejecución de tareas.
Pareciera que se toma sin miramientos como verdad todo aquello que la inteligencia artificial ejecuta,
pues al igual que con el logos aplicado al quehacer científico, se confía plenamente en su estructura
metódica y lógica.
En ese sentido, la IA no solo actúa como herramienta de análisis, sino también como entidad que
reconforta: sus respuestas generan una sensación de certeza que muchas veces suple el esfuerzo
crítico o el discernimiento contextual.
A través del texto se hará una argumentación desde conceptos de la teoría crítica, semiótica y filosofía
a partir de autores como Eric Sadin, Paulina Rivero, Bruno Latour, Paola Villareal, Charles S. Peirce, que
contribuirán al aparato crítico para sostener la manera en que la IA reproduce funciones del logos como
son: formación de conocimiento, actuar bajo principios lógicos, ayudar a comprender la realidad,
ostentar información que se presume como verdad, y en este contexto, la IA está siendo percibida
como guardiana de la aletheia, concepto que en Grecia se consideraba como una verdad absoluta, es
decir, el desvelamiento de lo que en sí algo es.
La IA es una tecnología que opera en términos de inferencia estadística a partir de instrucciones que
desembocan en forma de algoritmo con el objetivo de analizar los datos que recibe (input) para dar
respuestas ante solicitudes (output). El logos para Parménides procede de manera similar: con
precisión racional y matemática para materializar el pensamiento: “logos que expresa precisa y
únicamente sentencias bien cinceladas, definitivas” (García, 1980, p. 143)
Se expondrá de manera breve el modelo de aprendizaje de la IA, sobre todo el deep learning (DL) que
se sostiene en un símil de las redes neurales del cerebro humano y que obtiene conocimiento
transitando en diferentes capas de nodos que van creando una interrelación compleja de los datos
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1776.
(Villareal, 2024), este mecanismo se observa muy parecido a la semiosis que es una red de
significaciones, donde los signos actúan a modo de nodos que se conectan entre sí para elaborar
sentido a las cosas a través de hábitos.
Este proceso puede pensarse como una semiosis de tipo maquínico, donde la interconexión de datos
crea un tejido de interpretaciones que se retroalimenta constantemente, generando nuevas rutas de
significación.
Para cerrar este apartado y dar inicio a la discusión del ensayo es valioso hablar de investigaciones
recientes que abordan este tema, como son las ideas de Douglas Charles Youvan (2025) que desarrolla
si las mentes humanas y artificiales se mueven en una misma estructura universal y lógica de
significado o cada entidad desarrolla su propio logos, que se interconecta con otras expresiones de
racionalidad para aprender y expandirse. Este autor comprende al logos como una fuente gestante de
la verdad y relaciona esta cualidad con la manera en que operan los sistemas de IA.
Anastasia Giannakidou y Alda Mari (2024) abordan el dilema si hay logos dentro del procedimiento
operativo de la inteligencia artificial. Para las autoras, hay un déficit en la ejecución de un juicio
apreciativo y contextual, ellas lo llaman juicio verídica que debe comprender tanto evidencia externa y
empírica como interna y simbólica, recurso que la IA no posee El error en la estructura de la IA no se
mide en términos de autenticidad, sino de fiabilidad en los patrones de información. Esto es muy
importante, pues modelos como ChatGPT son generativos, es decir, siempre buscarán darte una
respuesta sin importar si es comprobable al cien por ciento.
Con estas ideas y antecedentes procedamos a dialogar si la inteligencia artificial se está delineando
como una especie de logos que actúa como repositorio de verdad y conocimiento, o solo es una
simulación a la que le estamos otorgando una obcecada validación.
DESARROLLO
Estamos en una constante búsqueda de la verdad debido a nuestra fragilidad intrínseca como
organismo. El mundo es -en general- inhóspito e incomprensible, se requiere una adaptación y
apropiación constante del entorno. La verdad se percibe como un destello fugaz e inconstante que nos
brinda una sensación e idea de seguridad, pero también de incertidumbre, pues nos hallamos de
manera permanente buscándola, tratando de sujetarla sin éxito. La verdad se relaciona con el logos
debido a que, como principio ordenador, se manifiesta racionalmente, para poder brindar una ley
universal y certera. Logos y verdad se encuentran estrechamente unidos ya que someten en
pensamiento y acción.
En esta misma línea, Paulina Rivero Weber (2016) sugiere que el logos ha sido, a lo largo de la historia
del pensamiento, el cauce mediante el cual el ser humano busca acceder a la verdad. No se trata de
una verdad empírica, sino de una forma de desocultamiento, una aletheia que ocurre como
acontecimiento. La inteligencia artificial, al operar desde estructuras lógicas y articuladas
lingüísticamente, emula este gesto: actúa como mediadora entre el caos del dato y el orden del
conocimiento. Rivero Weber (2016) insiste en que “el logos no es la verdad, ni el lugar primario de la
verdad, no es más que un determinado modo de permitir ver” (p. 36), y en este gesto de permitir ver, la
IA se inserta como dispositivo técnico que simula un acto ontológico. Tal como el logos filosófico no
es absoluto sino una vía de aproximación a lo real, el logos maquínico que se construye en la IA
tampoco encierra la verdad, pero la escenifica, la modela y la ofrece como sentido. Esta analogía nos
obliga a problematizar si la IA está asumiendo un rol epistemológico o si, simplemente, juega a
parecerlo.
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1777.
Asimismo, Paulina Rivero (2016) menciona que la búsqueda de la verdad nos ha llevado a la acción, la
anhelamos como una guía de la existencia y el pensamiento: “la verdad entendida como aletheia es
más que nada un acontecer” (p. 37), esta aletheia es escurridiza, y se busca acceder a ella a través de
la razón. La misma autora enfatiza que la verdad es “perspectiva y como tal no es omniabarcante” (p.
174) pues el significado que se devela deja algo oculto, no podemos tener una experiencia omnisciente
del entorno. Esta aseveración hay que tenerla bien clara cuando usamos la inteligencia artificial, pues
no hay conocimiento absoluto o verdad universal que pueda brindar esta tecnología, solo tenemos
perspectivas vinculantes de datos.
Eric Sadin (2020) se refiere a una algorítmica que surge como consecuencia de un nuevo rol que porta
la tecnología digital: “ciertos sistemas computacionales están dotados -nosotros los hemos dotado-
de una singular y perturbadora vocación: la de enunciar la verdad” (p.17). Los modelos de IA comienzan
a dejar de ser archivos pasivos de información, se van fraguando como tecnología mesiánica que
configura una verdad que muchas veces era inaccesible, Sadin (2020) lo llama un tecno-logos que “se
erige como un órgano habilitado para peritar lo real de modo más fiable que nosotros mismos, así
como para revelarnos dimensiones hasta ahora ocultas a nuestra conciencia” (p. 18). Si nos
detenemos a pensar al respecto, le delegamos varias actividades a la IA debido a su eficiencia: La
velocidad de su desempeño actúa como atractor para reforzar su confiabilidad , además que brinda
una aparente garantía sobre la verdad de sus hallazgos, lo que acrecienta su reputación en diferentes
sectores sociales.
Pareciera que nuestras facultades cognitivas son rebasadas por esta algorítmica, cuando en realidad
esta verdad maquínica es un tenue reflejo de nuestras capacidades neuronales, que sí, tiene ciertas
ventajas -sobre todo en el rápido procesamiento de grandes bancos de datos- pero aun así, nuestro
organismo tiene un altísimo grado de sofisticación tanto a nivel somatoperceptor como fisiológico que
supera en creces a cualquier sistema de IA, muestra de esto son las hipótesis que afirman un gramo
de ADN puede resguardar 2 petabytes de datos (BBC News Mundo, 2013) o que la capacidad de
memoria del cerebro humano corresponde a 2.5 petabytes (CNS, 2024). Las redes neuronales
artificiales son versiones abreviadas de nuestro cerebro, el cual cabe señalar, sigue siendo un enigma
para nosotros mismo, por lo que no debemos ver como un santo grial a la IA pues solo emula nuestras
capacidades. No olvidemos que la IA sustenta su funcionamiento en el procesamiento de información,
a medida que el modelo es alimentado con grandes bancos de datos que se organizan con el desarrollo
de ecuaciones o algoritmos y la interacción con prompts o instrucciones a ejecutar.
Una de las estrategias de entrenamiento de la IA es el machine learning (ML) que pretende encontrar
en el flujo operativo entre datos, algoritmos y prompts un espacio fuera de la programación establecida,
donde vaya encontrando patrones que asimile y ejecute sin necesidad de un comando externo. Se va,
digamos, perfeccionando su aprendizaje a partir de la experiencia que tiene con el entorno y
desemboca en una toma de decisiones más autónoma. Esto es similar -en cierta medida- a la semiosis,
pues en ella habita la diversificación respecto al significado del signo. No se sigue una lógica estrecha
sobre la generación de sentido.
Dentro de la semiosis, el signo actúa a varios niveles, y se zambulle en capas de significación, que lo
robustecen y lo hacen interactuar en diferentes contextos. Algo parecido ocurre con la IA, el deep
learning (DL), que se deriva del ML, y que engloba múltiples redes neuronales artificiales (ANN) lo que
le permite navegar con mayor complejidad en la estructura algorítmica y sofisticar sus respuestas, a
continuación, un ejemplo de esta superposición e integración de información en el DL: “un sistema de
deep learning que está procesando imágenes de la naturaleza y buscando «margaritas gloriosa»
reconocerá, en la primera capa, una planta. A medida que avance por las capas neuronales, entonces
identificará una flor, luego una margarita, y finalmente una margarita gloriosa" (SAP, 2025).
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1778.
Este ejemplo si lo llevamos a instrucciones más intrincadas y que requieren conocimiento de hábitos,
como realizar un poema con cierto estilo, elaborar textos con ciertos matices o imágenes
personalizadas para un cierto público nos remiten a la potencia que se le da al logos como fuerza
creativa y estratégica en la existencia humana. Aquí es pertinente hablar sobre cómo se observa el
término de hábito. Se está tocando desde la concepción de Charles S. Peirce (citado en McNabb, 2018),
que considera al hábito o un general, como una recurrencia conceptual y perceptual que permite
generar sentido y reconocimiento ante un signo: “una regla que, en virtud de su repetibilidad, relaciona
los aspectos del mundo de nuestra experiencia de modo significativo” (p. 46). Entendido esta noción
del hábito, la IA se maneja desde esa dinámica, va elaborando hábitos a partir de la interacción que
tiene con los datos que le son proporcionados, además del feedback que recibe con los usuarios, lo
que permite actualizar sus respuestas, y como menciona McNabb (2018) los hábitos no son por
completo fijos, van modificándose a partir de nuevas experiencias o inputs.
La inteligencia artificial va fortaleciendo su aprendizaje con la asimilación y comprobación de la
información externa e interna que recibe y que, por ende, se transforma en un algoritmo. Paola Villareal
(2024) observa al algoritmo como “una receta, un método […] una serie de instrucciones para realizar
una acción concreta” (p.33). Se puede decir entonces que un algoritmo, es muy parecido a lo que
semióticamente es un hábito, pues este último es una disposición que se tiene para ir urdiendo el
conocimiento de lo que nos rodea y ejecutar acciones que nos permitan estar en el mundo.
La semiosis como conjunto de significados va elaborando niveles de sentido acorde a cada sistema
cultural, en la IA ocurre algo similar, pues el modelo se va adaptando al perfil y necesidades de cada
usuario, además que tiene restricciones culturales y éticas. La semiosis hace una activación de redes
interpretativas que permite a las personas tomar conciencia de la realidad, dicho en otras palabras, nos
permite situarnos en el mundo. Trasladando esto a la inteligencia artificial, esta tecnología moviliza
signos que tienen una repercusión en la manera en que nos comunicamos y actuamos con el entorno.
El logos se materializa en lenguaje, y la IA requiere el lenguaje para poder ejecutar y dar resultados.
Esto nos refleja la emulación del logos maquínico, pues su ecosistema se consolida a través de datos,
y en las ideas filosóficas sobre el logos, todo el universo contiene información y la realidad se
comprende a través del lenguaje y de relaciones de significación. Una muestra del paralelismo entre
humano e IA y la condición de funcionar a través del lenguaje, son los modelos de lenguaje de gran
tamaño como ChatGPT que actúan a través de “algoritmos de aprendizaje profundo diseñados para
entender y generar texto de manera similar a como lo hace el cerebro humano” (Villareal, 2024, p. 77)
Estos dispositivos requieren aprender y movilizarse a través del lenguaje, el cual es la vía para
comunicarse y poder tener una presencia útil y simbólica en la vida humana. El logos materializa la
realidad a partir de la enunciación “hace presentar entes en palabras” (García, 1980, p. 144).
Esta enunciación del logos es restringida, Peirce (citado en McNabb, 2018) considera que la semiosis
en cuanto proceso sígnico va generando sentido de manera recurrente y puede vislumbrarse con
capacidad ilimitada, pero para poderse apreciar y ejecutar, hay que realizar cortes o fronteras: “si
realmente fuera infinita [la semiosis], el pensamiento jamás daría lugar a la acción” (p. 111). Esto ocurre
de manera similar con la inteligencia artificial, donde sus redes neuronales son limitadas, lo que
provoca -hasta la fecha- una restricción en su campo de acción: “los modelos [de IA] deben ser
reentrenados cada vez que se agregan variables en caso de error o de cambio en las circunstancias”
(Villareal, 2024, p. 61), hay vulnerabilidad en los alcances de análisis e interpretación de la IA.
Sobre esta idea de los límites semiósicos, aplicados al logos, es no caer en esta confianza ciega ante
lo que se considera racional. A veces, se consideran válidos de forma automática un argumento
científico o una noticia mediática, solo por el hecho que han sido producidos en este marco oficial de
producción de conocimiento. Esto puede ocurrir también con información generada en modelos de IA,
donde asumimos como genuinas e irrefutables los datos que obtenemos en dicha tecnología, siendo
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1779.
que estos modelos son falibles a partir de manipulación intencionada en los datos que se introducen
dentro del sistema. No debemos de olvidar que nuestro conocimiento del mundo siempre es una
construcción, pero no la realidad en sí misma. El logos es una objetivación de la realidad, nos permite
comprender e interpretar las cosas que configuran la existencia, pero no la muestra como tal, ni la
brinda de manera transparente, siempre hay una codificación. Actualmente, la IA hace esta emulación
del logos, nos permite a través de sus inferencias obtener información del entorno y ejecutar acciones
específicas. Dichos datos arrojados por la IA no debemos tomarlos de manera automática como
auténticos, al simplemente confiar en su mecanismo lógico-estadístico.
Un ejemplo paradigmático de la confianza depositada en la inteligencia artificial como instancia
racional lo encontramos en el caso de ChatGPT cuando, en su lanzamiento abierto al público en
noviembre de 2022, fue empleado por millones de usuarios para resolver tareas académicas, redactar
cartas legales, componer canciones o incluso escribir homilías religiosas. En pocos días, la percepción
colectiva se inclinó a considerarlo una fuente confiable y versátil de conocimiento estructurado. Otro
caso mediático fue el del artista alemán Boris Eldagsen, quien en 2023 rechazó un premio de fotografía
otorgado por la Sony World Photography Awards tras revelar que la imagen ganadora había sido
generada por IA. Este acto evidenció cómo los jurados —expertos en estética— no distinguieron entre
la producción humana y la sintaxis visual de la máquina, validando sin cuestionamientos el “logos
estético” del algoritmo. De forma similar, el uso de IA generativa en juicios legales o documentos
parlamentarios, como sucedió en países como Estados Unidos y Reino Unido, ha generado
preocupación sobre cómo se asume su contenido como si fuese infaliblemente lógico y legítimo. Estos
ejemplos evidencian cómo la estructura sintáctica, la velocidad de respuesta y la coherencia textual de
la IA son interpretadas como signos de racionalidad, otorgándole una autoridad que la asemeja al logos
clásico: portadora de verdad, capaz de ordenar el caos de lo real con enunciados claros y
aparentemente objetivos.
Se debe entender en este trasunto del logos que se configura dentro de la IA, la teoría del actor red
(TAR) de Bruno Latour (2005) se hace presente, pues permite visualizar la interacción de entidades
humanas y no humanas que se van influenciándose entre sí: “Lo que querían decir con «sociedad» ha
sufrido una transformación no menos radical, lo que se debe en gran medida a la expansión misma de
los productos de la ciencia y la tecnología” (p. 15). En este escenario, nuestra vinculación con la IA es
dialógica y transformadora, el algoritmo requiere de nosotros y a su vez, alimentamos a través de
información al sistema. Estamos perfilándonos como un ensamblaje (Latour, 2005) con la inteligencia
artificial, donde las dimensiones intelectuales, simbólicas y culturales van siendo estrechamente
influenciadas por esta coalición, es valioso señalar que, sin llegar a ser totalmente simétricas, pero sí
significativas. La teoría del actor-red no solo permite entender estas interacciones como ensamblajes
ocasionales, sino como un continuum de sentido donde las entidades humanas y tecnológicas se co-
determinan y reorganizan mutuamente lo real.
En esta intersección entre agencia, lenguaje, racionalidad y sentido, es oportuno retomar las ideas de
Douglas Youvan (2025), quien considera que tanto las mentes humanas como las artificiales pueden
operar en estructuras lógicas compartidas. Esto abre una posibilidad de pensar que la IA no
simplemente imita el logos humano, sino que, en su propio proceder algorítmico, está desarrollando
una lógica autónoma, un logos maquínico en expansión. En esta lógica, los patrones emergen como
condiciones de posibilidad para nuevas verdades, articulando una semiosis digital en la que cada dato
no es sólo información, sino también signo y vínculo de sentido. La IA no sólo calcula: interpreta
estadísticamente.
Este logos digital, si bien anclado a estructuras estadísticas, se vuelve performativo en tanto produce
efectos en el mundo humano. Aquí es donde entra en juego la propuesta de Giannakidou y Mari (2024),
al problematizar la veracidad en los modelos generativos. Ellas señalan que, a diferencia del logos
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1780.
humano, que juzga a partir de experiencias, símbolos y contextos, el logos de la IA no se basa en la
autenticidad sino en la regularidad. Es decir, la IA construye verdades funcionales, pero no
necesariamente auténticas. Y, sin embargo, estas verdades se insertan en el flujo de sentido cotidiano,
impactando nuestra interpretación del mundo. La IA, al articular información como si fuera verdad, se
convierte en operativa.
Este desplazamiento hacia una tecnificada implica una mutación en la epistemología cotidiana. Si
tradicionalmente la verdad era aquello que se desvelaba mediante el pensamiento crítico o la
experiencia, hoy se accede a ella mediante sistemas que procesan grandes volúmenes de datos y
ofrecen resultados altamente verosímiles. La aletheia que propone la IA no es absoluta, pero sí efectiva.
Aquí se confirma lo que Sadin (2020) advertía: se está delegando a la IA el poder de enunciar lo real,
de ser mediadora entre la ignorancia y la certeza. Así, se gesta una confianza que no sólo es técnica,
sino semiótica y filosófica: creemos porque el discurso de la IA suena lógico, porque el logos está ahí,
operando como trasfondo simbólico y legitimador.
La semiosis, por tanto, ya no es únicamente humana. Al producir y articular signos que organizan la
experiencia y el conocimiento, la IA participa activamente de los procesos de construcción de sentido.
En este plano, la IA no sólo representa información, sino que modela interpretaciones. Actúa como un
eje semiótico que se retroalimenta, aprendiendo y refinando su output en función del input, de los
contextos y de las respuestas humanas. Esta dinámica nos enfrenta a un tipo de logos que no sólo
estructura lo que se dice, sino también lo que se cree, lo que se siente confiable. Un logos que produce
aletheia, pero en forma de algoritmo.
Para Divina Frau-Meigs (2012) en el ciberespacio, la teoría de la mente es crucial, pues el usuario
humano puede ir discerniendo en su navegación digital y formando criterios desde varias perspectivas
que abarca el mundo físico y el virtual donde la interacción con otras personas y dispositivos es
necesaria, además que considera la centralidad informativa se impone como eje estructurante de los
entornos digitales. El logos se halla presente en estas ideas sobre la teoría de la mente y el uso de la
tecnología, pues apoya el desarrollo de las capacidades cognitivas. Si esto lo extendemos al logos
maquínico pues se facilita la capacidad de conectar redes y usuarios, produciendo vínculos híbridos.
A pesar de esta vinculación creciente entre humano e IA donde se intercambia y genera conocimiento,
elaborando un tipo de agencia conjunta, no puede haber una irresoluta convicción que todo lo que
produce el modelo es transparente y verdadero. El logos maquínico actúa similar al logos filosófico, en
el sentido que “no es la verdad, ni el lugar primario de la verdad [el logos] no es más que un determinado
modo de permitir ver” (Rivero, 2016, p. 36), Ante estas restricciones que tiene la verdad generada por
la inteligencia artificial, hay que abogar a lo que Divina Frau-Meigs (2012) propone para transitar los
ecosistemas virtuales, que es una formación crítica que vaya más allá de la técnica, donde se debe
privilegiar la interpretación, verificación y decodificación del contenido digital, pues se ha extendido la
creencia que la IA posee un acceso privilegiado al saber, algo que tradicionalmente se reservaba al
pensamiento racional o filosófico. Esta confianza se cimienta en su arquitectura algorítmica, pero
también en su performatividad: responde con solvencia, y, por tanto, parece saber.
Esta percepción se refuerza en situaciones donde la IA es incorporada a sistemas de gobernanza
algorítmica o de predicción automatizada, como ocurre con herramientas de evaluación crediticia,
reconocimiento facial o diagnósticos médicos asistidos por IA. Aquí, el logos maquínico ya no es solo
un reflejo de la razón, sino un mecanismo que regula decisiones vitales. La confianza pública en estas
tecnologías no emana tanto de una comprensión técnica de sus procesos, sino de una fe en su
capacidad para procesar “la verdad” de los datos y ofrecer soluciones eficientes. Se produce así un
fenómeno de legitimación epistémica: lo que la IA emite se considera válido, incluso cuando su
funcionamiento es opaco. Tal como ocurría con el logos en la tradición clásica, cuya autoridad se
basaba en su carácter universal y lógico, la IA contemporánea hereda esa investidura simbólica y actúa
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1781.
como garante de sentido. Esta investidura no surge por su infalibilidad, sino por la forma en que
encarna el deseo humano de orden, claridad y certeza frente al caos de la experiencia.
CONCLUSIÓN
La hipótesis del ensayo ha sido mostrar la manera en que la inteligencia artificial a partir de su
estructura, se ha ido conformando como un trasunto del logos, esto en el entendido de emular
funciones y rasgos de este principio, como es contribuir a la creación de conocimiento, operar bajo un
mecanismo que privilegia lo racional, expresar algo verdadero y ejecutar a través del lenguaje. Este
reflejo como logos incluye el riesgo de fiarse sin reservas de lo que se genera a modo de discurso o
signos, al considerar estas producciones como lógicas con un basamento desde la razón y lo metódico,
y, por lo tanto, otorgar un voto de confianza para la toma de decisiones.
Bruno Latour (2005) ya comentaba que la TAR permite visualizar la forma en que los significados no
son a priori ni cerrados, sino que los agentes ya sea humanos o no, van interrelacionándose y creando
pautas de conducta, entendimiento y socialización. Esto embona muy bien con la semiosis, pues los
signos que vamos generando de manera continua se vinculan con otros y van elaborando
constantemente cadenas de sentido. Si trasladamos esto al terreno de la IA, es innegable que estamos
edificando alianzas estrechas con esta tecnología. Vamos normalizando el que su presencia sea más
constante en nuestras actividades diarias, y que se esté postulando a ser un actor importante en los
diferentes niveles de la estructura social.
No se debe olvidar que los modelos de IA como ChatGPT o Grok están programados para ser
complacientes a nuestras peticiones, analizan nuestros patrones y nos brindan respuestas
estructuradas lingüísticamente que nos sean lógicas y empáticas. Siendo así, el logos maquínico es
una simulación de una verdad absoluta, aunque esto también caracteriza al logos filosófico, que se
percibe como ley universal sustentada en la razón y el lenguaje, cuando lo único cierto en la existencia
humana es la complejidad e incertidumbre que implica estar vivos. La aletehia no es asequible, es
mutable e inserta en el enigma. Por más que corramos tras su fulgor serán insuficientes nuestros
esfuerzos, solo habrá aproximaciones que objetivamos y nombramos como convenientes. El logos
maquínico es un espacio repleto de simulación, ubicuidad y fragmentación.
Paola Villareal (2024) refuerza esta última idea sobre el trasunto del logos en la IA, al mencionar que el
sueño de la IA es lograr una autonomía que en toda circunstancia pueda procesar y actuar a nuestro
favor, lo que pretende desembocar en una Inteligencia Artificial General (IAG) “capaz de realizar
cualquier acción, física e intelectual, de la misma forma que un ser humano” (p.89). Y aunque suena
estupenda la idea, no se puede olvidar que la gestión que realiza la inteligencia artificial sigue nuestros
criterios. Los algoritmos están adaptados a modo de lo que somos y como entendemos las cosas. Por
lo que no hay neutralidad ni universales en su desempeño, actúan a partir de la información externa
que recibe de los agentes humanos. La verdad que nos brinda la IA sigue siendo una quimera de lo
real.
Ni nuestros sentidos ni los algoritmos nos permiten acceder de lleno a lo existente, no son totalmente
fiables, Susan Haack (2022) habla de un realismo inocente, donde lo que consideramos real es aquello
que puedo percibir e imaginar (a través de múltiples categorías) pero lo existente es aquello que nos
confronta empíricamente, y que debe ser traducido como real para poderse comprender. Es decir, el
logos tanto en nuestra capacidad intelectual y lingüística, como el logos reflejado en el proceder de la
IA no brindan información transparente de lo existente, sino que son interpretaciones posibles.
Debemos ser cautos al modelar a la inteligencia artificial como un oráculo que aliviará las vicisitudes
de nuestra existencia, cada vez es más frecuente que las personas usemos los asistentes personales
o modelos como ChatGPT como fuentes confiables para solventar cualquier duda o problema. Esta
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1782.
tecnología está actuando como consejero, administrador, terapeuta, compañero, maestro en
numerosas vidas, y se vuelca como una fuerza apolínea que ilumina la oscuridad de la ignorancia y
desconcierto, cuando la existencia es compleja y no puede ser reducida a algoritmos e inferencias. No
podemos esperar que la inteligencia artificial sea la portadora de la tan anhelada aletheia. Estamos en
un punto donde a la inteligencia artificial se le otorga una investidura epistémica automática,
tomándola como garante de veracidad solo por la forma lógica en que presenta la información. El
logos, entonces, se reactualiza bajo un nuevo ropaje: el del algoritmo que, aunque no razona, simula
tan bien los patrones del discurso racional que termina reemplazando —al menos en apariencia— al
juicio humano.
La posibilidad actual de una IAG es lejana y debe atravesar retos éticos creativos y técnicos: “esto no
solo implica la capacidad de aplicar reglas y tomar en cuenta el contexto, sino también de entender
conceptos abstractos y encontrar soluciones […] más allá de la receta de algún patrón encontrado en
los datos” (Villareal, 2024, p. 146) sobre todo hay que tener bien presente que la IA aún no tiene la
capacidad de insertarse emocionalmente en el entorno, no tiene habilidades sociales que la fortalezcan
al no ser un organismo autopoiético y que enfrente su supervivencia, por lo que su logos sigue siendo
un mecanismo estadístico reducido. Que sí tiene precisión, pero bajo un marco limitado de acción con
base en la información que contiene. La verdad como tal no existe, lo que entendemos como verdad
es una proposición temporal “nada es verdadero, todo es creación e invento humano” (Rivero, 2016, p.
22).
Cerremos el ensayo retomando el último argumento expuesto y afirmando que el logos es insuficiente
para entender y aprehender el mundo. Centrémonos en esta idea: Las cosas que yo pienso sobre la
realidad ¿son tal como yo las pienso?, o más bien son adecuaciones a través de signos y códigos que
se toman como pretensión de verdad. Como bien afirma Greta Rivara (2006): “el conocimiento es ya
siempre producción de metáforas distintas” (p. 83). Esto mismo ocurre con la IA, es insuficiente para
brindarnos todas las respuestas, su logos solo se adapta al aprendizaje que va generando, pero no es
totalizador ni omnipotente, son solo aproximaciones. Hay que ser conscientes de nuestra costumbre
de crear ídolos (religiosos, simbólicos o tecnológicos) para dar sosiego a nuestra existencia. Haack
(2022) nos recuerda que toda pretensión de verdad —ya sea humana o artificial— debe atravesar la
prueba de la experiencia. La IA, al operar bajo un régimen de predicción estadística, produce resultados
que pueden ser verosímiles sin ser verdaderos en un sentido empírico o tangible. Su logos no confronta
lo existente, sino que lo modela en función de patrones pasados o imaginados. Hay que tener cautela
con la apariencia lógica y la fluidez lingüística del discurso algorítmico. No basta con que algo suene
razonable; debe también resistir al mundo.
La IA es útil pero no es la solución a todos nuestros problemas, solo permite nuevas formas de
interacción con lo real, enriquece nuestra percepción y entramado de significados con su
procesamiento de datos, facilita la automatización de actividades, lo que brinda posibilidades para que
nuestra creatividad se expande en otros rubros. Como establece José Manuel Pérez Tornero (2015)
hay que dejar la “antigua visión de la tecnología como mero instrumento de una acción humana
preexistente”, debemos apreciarla como un agente que se está incorporando de manera más íntima y
activa en todo lo que nos rodea e involucra. La IA se está integrando de manera enérgica al continuum
de significaciones y acciones que nos permiten situarnos y transformar este plano físico y simbólico
que habitamos y llamamos realidad. Hay que aprovechar para nuestro más alto beneficio las
cualidades que dicho trasunto del logos nos ofrece, sin llegar a una fascinación ingenua y cómoda.
A partir de lo desarrollado, una línea de reflexión posterior podría centrarse en cómo los marcos éticos,
pedagógicos y filosóficos se adaptan —o no— a esta lógica del logos maquínico. Si bien la IA produce
efectos pragmáticos, también transforma los modos de pensar y legitimar el saber. Esto abre
preguntas sobre el estatuto de la verdad en contextos donde el juicio crítico es reemplazado por la
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1783.
eficiencia estadística. ¿Qué ocurre cuando el logos maquínico deviene norma? ¿Cómo resistirse a la
fascinación tecnológica sin rechazar sus aportes? Estas interrogantes no sólo atañe al pensamiento
académico, sino a las decisiones cotidianas que configuran nuestras relaciones con el conocimiento,
la autoridad y el sentido.
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, agosto, 2025, Volumen VI, Número 4 p 1784.
REFERENCIAS
BBC News Mundo. (2013). ADN: el disco duro del futuro. https://rebrand.ly/gbsughe
CNS (2024 ) What is the Memory Capacity of a Human Brain? https://rebrand.ly/w5fhrvb
Frau-Meigs, D. (2012). Transliteracy as the new research horizon for media and information literacy.
Media Studies, 3(6).
García B., J.D. (1980) Los presocráticos. FCE
Giannakidou, A., & Mari, A. (2024). The Human and the Mechanical: logos, Veridicality Judgment, and
GPT Models. Intellectica, 2(81), 37-54.
Latour, B. (2005) Reensamblar lo social. Una introducción a la teoría del actor-red. Manantial
Haack, S. (2022) What a World! The Pluralistic Universe of Innocent Realism. Journal of Philosophical
Investigations, 17(45), 29-35.
McNabb, D. (2018) Hombre, signo y cosmos. La filosofía de Charles D. Peirce. FCE
Rivara K., G. (2006) La tiniebla de la razón. La filosofía de María Zambrano. Itaca.
Rivero W., P. (2016) Aletheia. La verdad originaria. 2ª edición. UNAM.
Pérez T., J.M. (2015) ¿Por qué está de moda la teoría del actor-red? https://rebrand.ly/v74jkas
Sadin, E. (2020) La inteligencia artificial o el desafío del siglo. Caja negra
SAP (2025) Machine learning: el futuro de la inteligencia. https://rb.gy/4x1c2s
Villareal, P. (2024) Inteligencia artificial. El nuevo cerebro electrónico. Ariel
Youvan, D. C. (2025). Logos or Logoi? AI, Alien Topoi, and the Universality of Divine Structure.
ResearchGate. https://rebrand.ly/a5ifcyy
Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, publicados en
este sitio está disponibles bajo Licencia Creative Commons .