MIME-Version: 1.0 Content-Type: multipart/related; boundary="----=_NextPart_01DC9DCA.23A40A60" Este documento es una página web de un solo archivo, también conocido como "archivo de almacenamiento web". Si está viendo este mensaje, su explorador o editor no admite archivos de almacenamiento web. Descargue un explorador que admita este tipo de archivos. ------=_NextPart_01DC9DCA.23A40A60 Content-Location: file:///C:/A4123D1A/0084_MedinaGonzalez.htm Content-Transfer-Encoding: quoted-printable Content-Type: text/html; charset="us-ascii"
DOI: https://doi.org/ 10.56712/latam.v7i1.5333
Educación crítica e imp=
acto
de la inteligencia artificial en los derechos humanos y el bienestar subjet=
ivo
de las personas
Critical
education and the impact of artificial intelligence on human rights and peo=
ple's
subjective well-being
Hernán
Medina González
hemego09@gmail.com
https://orcid.=
org/0009-0007-9230-4763
Universidad Ben=
ito Juarez G.
Puebla –
México
Artículo recibido: 10 de octubre=
de
2025. Aceptado para publicación: 14 de febrero de 2026.
Conflictos de Interés: Ninguno que declarar.
Resumen
El documento presenta los resultados de una investigación
teórica crítica orientada hacia el análisis de las
interrelaciones entre educación, inteligencia artificial, derechos
humanos y bienestar subjetivo. A partir de un enfoque hermenéutico y=
del
análisis documental de literatura académica reciente, se exam=
inan
los impactos de la inteligencia artificial en los procesos educativos, las
dinámicas psicosociales y las condiciones estructurales que influyen=
en
el ejercicio de los derechos humanos. El estudio evidencia que la
incorporación acelerada de tecnologías basadas en inteligencia
artificial está transformando las prácticas pedagógica=
s,
los modelos evaluativos y la gestión institucional, generando tensio=
nes
entre automatización, autonomía, eficiencia tecnológic=
a y
formación ética. Asimismo, se identifican efectos significati=
vos
de la inteligencia artificial sobre el bienestar subjetivo, particularmente=
en
relación con la salud mental, la percepción de la realidad, la
motivación y la construcción de la identidad en entornos
altamente digitalizados. Estas transformaciones se ven condicionadas por
desigualdades estructurales, brechas digitales y limitaciones en el acceso a
recursos tecnológicos. En el plano de los derechos humanos, el
análisis revela riesgos asociados a la vigilancia masiva, la
discriminación algorítmica y la manipulación informati=
va,
lo que exige marcos regulatorios robustos y una gobernanza tecnológi=
ca basada
en principios humanistas. El articulo concluye que la educación debe
asumir un rol central en la formación crítica de los ciudadan=
os,
promoviendo el uso ético, consciente y equitativo de la inteligencia
artificial; situando el bienestar subjetivo y la dignidad humana como ejes
articuladores de las políticas educativas contemporáneas.
Palabras clave: bienestar subjetivo, derechos humanos, educación crít=
ica,
inteligencia artificial
Abstract
The document presents the results of a critical theoretical
investigation aimed at analyzing the interrelationships among education,
artificial intelligence, human rights, and subjective well-being. Drawing o=
n a
hermeneutic approach and a documentary analysis of recent academic literatu=
re,
the study examines the impacts of artificial intelligence on educational
processes, psychosocial dynamics, and the structural conditions that shape =
the
exercise of human rights. The findings show that the accelerated incorporat=
ion
of AI‑based technologies is transforming pedagogical practices,
assessment models, and institutional management, generating tensions between
automation, autonomy, technological efficiency, and ethical formation. The
study also identifies significant effects of artificial intelligence on
subjective well-being, particularly in relation to mental health, perceptio=
ns
of reality, motivation, and identity construction in highly digitalized
environments. These transformations are conditioned by structural inequalit=
ies,
digital divides, and limitations in access to technological resources. In t=
he
realm of human rights, the analysis reveals risks associated with mass
surveillance, algorithmic discrimination, and informational manipulation,
underscoring the need for robust regulatory frameworks and technological
governance grounded in humanistic principles. The article concludes that
education must assume a central role in fostering citizens’ critical
awareness, promoting the ethical, conscious, and equitable use of artificial
intelligence, and placing subjective well-being and human dignity at the co=
re of
contemporary educational policies.
Keywords: subjective well-being, human rights, criti=
cal
education, artificial intelligence
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
<= o:p>
Todo el contenido de LATAM Revista Latinoamerica=
na
de Ciencias Sociales y Humanidades, publicado en este sitio está
disponibles bajo Licencia Creative Commons.=
<=
/span><=
o:p>
C= ómo citar: Medina González= , H. (2026). Educación crítica e impacto de la inteligencia artifi= cial en los derechos humanos y el bienestar subjetivo de las personas. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades 7 (1), 1184 R= 11; 1204. https://doi.org/ 10.56712/lat= am.v7i1.5333<= o:p>
INTRODUCCIÓN
El presente documento se inscribe en el campo =
de
la investigación teórica crítica. Tiene como
propósito explorar las interrelaciones entre inteligencia artificial
(IA), derechos humanos y bienestar subjetivo, desde una perspectiva educati=
va,
comprometida con la formación integral del ser humano.
En un contexto global marcado por la acelerada
incorporación de tecnologías emergentes en los procesos socia=
les,
culturales y pedagógicos, se torna imperativo reflexionar sobre los =
impactos
que estas herramientas, particularmente la inteligencia artificial,
están teniendo en la configuración de subjetividades, en la
garantía de derechos fundamentales y en la transformación de =
las
prácticas educativas.
La educación crítica, entendida =
como
un proceso dialógico, ético y emancipador, se enfrenta al
desafío de integrar reflexivamente la inteligencia artificial en sus
dinámicas, sin renunciar a su vocación humanista ni a su
responsabilidad social.
En este sentido, el pensamiento crítico=
se
erige como eje articulador de una pedagogía que no solo interroga los
efectos de la tecnología sobre la vida cotidiana, sino que
también propone marcos interpretativos para comprender sus implicaci=
ones
en la salud mental, la intimidad, las libertades individuales y la dignidad
humana.
La inteligencia artificial, lejos de ser un
fenómeno exclusivamente técnico, debe ser abordada como un
constructo sociotécnico que incide en la subjetividad, en la
distribución del poder y en la reproducción de las desigualda=
des
estructurales.
Este trabajo propone una aproximación
analítica que vincula la educación crítica con la defe=
nsa
de los derechos humanos y la promoción del bienestar subjetivo,
reconociendo que dichos conceptos no pueden ser tratados de forma aislada. =
La inteligencia artificial, al irrumpir en los
espacios educativos, plantea dilemas éticos y epistemológicos=
que
requieren ser abordados desde una perspectiva situada, sensible a los conte=
xtos
sociales y a las condiciones históricas que configuran las experienc=
ias
de los sujetos.
Por ello, se enfatiza en la necesidad de const=
ruir
conocimiento reflexivo para comprender las tensiones entre
automatización y autonomía, entre eficiencia tecnológi=
ca y
formación ética, entre innovación y justicia social.
La investigación se orienta hacia la
construcción de un corpus documental que permita interpretar las
realidades emergentes en torno al uso de la inteligencia artificial en
educación, considerando sus efectos en el bienestar subjetivo y en l=
a garantía
de los derechos humanos.
Se parte de la premisa de que el pensamiento
crítico, promovido desde la educación, puede contribuir a la
configuración de marcos normativos, pedagógicos y culturales =
que
orienten el uso responsable, ético y humanista de la tecnologí=
;a.
En este escenario, se propone una lectura
hermenéutica de las relaciones entre los conceptos centrales del
estudio, con el fin de aportar a la construcción de una educaci&oacu=
te;n
comprometida con el futuro de las personas y con la defensa de sus derechos=
en
un mundo profundamente interconectado y tecnificado.
METODOLOGÍA
El objetivo de la presente investigació=
n de
carácter teórico se centra en interpretar las relaciones
existentes entre los conceptos de educación, pensamiento crít=
ico,
bienestar subjetivo, derechos humanos e inteligencia artificial.
Se ha optado por escudriñar en diferent=
es
textos académicos, que en primera instancia no tendrían
conexiones evidentes, para discernir en torno a los fenómenos asocia=
dos
al auge de la inteligencia artificial generativa y su impacto, tanto en los
derechos humanos como en el bienestar subjetivo de las personas, poniendo c=
omo
eje central a la educación.
Cabe destacar que este tipo de enfoques
metodológicos y epistemológicos estiman que “la
investigación educativa es abrumadoramente monolingüe –a
favor de la empírica– en lugar de plurilingüe. Este
reduccionismo epistémico y lingüístico genera importantes
mermas para la construcción del conocimiento educativo”. (Rome=
ro
Pérez, C. 2024. p. 6), por lo cual al
interpretar estos conceptos a la luz de investigaciones previas, se busca
ampliar la perspectiva de la investigación educativa para asentarse
sobre marcos teóricos anteriores que favorecen el establecimiento de
vínculos entre distintos conceptos, con el fin de abordarlos desde la
óptica propia del pensamiento crítico.
Esta dicotomía entre los estudios
pragmáticos o empíricos y teóricos está marcada=
por
una tendencia hacia la necesidad de perseguir intereses políticos,
sustentados únicamente en evidencias que, si bien es cierto, son
importantes para estructurar procesos educativos, carecen de análisis
críticos que trasciendan la presentación de datos para
involucrarse de forma más directa con las realidades de las personas=
en
su cotidianidad, al interior de los territorios que habitan, en
correlación con diversos actores sociales.
Ante la necesidad de rescatar elementos subjet=
ivos
del bienestar y del impacto de la inteligencia artificial en los derechos
humanos, se acomete este camino a partir de una perspectiva crítica =
con
miras a nuevas interpretaciones de la educación como escenario centr=
al
para el ser humano, entendiendo el predominio de las cifras y los datos en
menoscabo de la construcción conceptual.
Figura 1
Infografía sobre La investigació=
n teórica
en educación: Singularidades y tendencias. (Romero Pérez, C.
2024)
Nota: La infografía denuncia el marca=
do
predominio de la investigación empírica sobre la teóri=
ca
en educación, mostrando que solo el 5.5% de las tesis analizadas en
España entre 2003 y 2023 fueron teóricas. Resalta que la
mayoría de éstas se enfocan en la reconceptualización =
de
teorías existentes y atribuye el declive teórico a factores c=
omo
agendas políticas pro-evidencia, estilos
pragmáticos, y déficits formativos en posgrados, lo que ha
generado una desertificación conceptual en el campo educativo. Imagen
diseñada con asistencia de NotebookLM (e=
nero
20 de 2026) a partir de (Romero Pérez, C. 2024).
Así las cosas, teniendo como referente =
este
contexto, para concretar los propósitos del presente estudio,
inicialmente es menester indicar que al mencionarse la expresión
inteligencia artificial generativa, se hace referencia específica a =
este
tipo de tecnología y al tratarse de inteligencia artificial, se hace=
alusión
a un criterio mucho más general. Estas dos acepciones se utilizan en=
el
discurso interpretativo, por lo cual es necesario enfatizar en estas
diferencias desde la base teórica del análisis documental que
abre las puertas a las interpretaciones conceptuales.
Ahora bien, el tipo de estudio realizado se ba=
sa,
inicialmente, en ciertas técnicas bibliométricas, puesto que:=
El análisis documental se puede volver =
un
abordaje útil para, a través de documentos, dar cuenta ni
más ni menos que de la vida cotidiana de los sujetos, al pensarse esa
cotidianidad como fenómeno de una cristalización de procesos
macrosociales más complejos. (Molgaray, =
D.
2018. p. 176)
Por lo tanto, se exploraron múltiples
documentos, entre los que se cuentan artículos incluidos en revistas
indexadas, así como, un artículo y un capítulo de libr=
o de
la autoría del investigador y algunas tesis de doctorado y
maestría de otros autores, provenientes de prestigiosas universidades
latinoamericanas.
Lo anterior, entendiendo que el enfoque de la
investigación prioriza las informaciones de investigadores con origen
latinoamericano, toda vez que, las realidades de estos territorios tienen s=
us
propias particularidades, requiriendo respuestas adecuadas a sus contextos.=
El documento interpretativo generado implica a=
dvertir
acerca del contexto analizado, sin indicar con esto que los referentes
utilizados por estos investigadores puedan ser oriundos de otros lugares del
mundo, ya que las experiencias por ellos expresadas eventualmente son
útiles para el aprendizaje.
Además, al identificar los textos aludi=
dos
se procede con la categorización de los conceptos definidos de forma
anticipada, los cuales, posteriormente se codifican y se explora cada uno de
los documentos de manera individual para reconocer tanto coocurrencias como
redes de datos cualitativos. Luego se establecen conexiones entre
códigos, citas, memos y documentos, con el fin de identificar patron=
es
claves para la estructuración del análisis interpretativo.
De esta forma, los resultados obtenidos obedec=
en
al procesamiento de los datos cualitativos, sometidos a la reflexión=
del
investigador durante todo el proceso, a fin de incorporar, desde la
experiencia, argumentos propios de quien se ha adentrado en análisis
hermenéuticos para intentar comprender mejor ciertas relaciones
conceptuales con una perspectiva estructurada desde el humanismo.
De igual forma, la elección de un enfoq=
ue
epistemológico de carácter
crítico‑hermenéutico se fundamenta en la naturaleza
compleja, multidimensional y profundamente contextual de los fenómen=
os
analizados: la educación, la inteligencia artificial, los derechos
humanos y el bienestar subjetivo. Estos no pueden ser comprendidos
únicamente desde marcos positivistas o desde aproximaciones centrada=
s en
la medición, pues involucran dimensiones simbólicas,
éticas, históricas y subjetivas que requieren ser interpretad=
as
más que cuantificadas.
Desde esta perspectiva, la investigación
asume que el conocimiento no es un reflejo neutro de la realidad, sino una
construcción situada que emerge de la interacción entre sujet=
os,
discursos y contextos socioculturales. Por ello, se adopta una postura
epistemológica que reconoce la historicidad del conocimiento, la
mediación del lenguaje y la centralidad de la experiencia humana en =
la
producción de sentido. Esta orientación permite comprender la
inteligencia artificial no sólo como un artefacto técnico, si=
no
como un fenómeno sociotécnico que reconfigura prácticas
educativas, relaciones de poder y formas de subjetivación.
De igual modo, la hermenéutica cr&iacut=
e;tica
ofrece herramientas para analizar cómo los discursos sobre la
inteligencia artificial, la innovación educativa y los derechos huma=
nos
se inscriben en estructuras de desigualdad, especialmente en América
Latina, donde las brechas digitales y las asimetrías
socioeconómicas condicionan el acceso y los efectos de estas
tecnologías.
Desde este enfoque, interpretar documentos no
implica únicamente describir contenidos, sino desentrañar los
supuestos, tensiones y significados que subyacen en ellos, siendo muy relev=
ante
la comprensión de las implicaciones de la inteligencia artificial en=
la
educación y en la vida social.
Esto, exige una mirada que articule subjetivid=
ad,
ética y justicia social. Solo un enfoque crítico ‑
hermenéutico permite integrar estas dimensiones para ofrecer una lec=
tura
profunda, situada y humanista de los desafíos contemporáneos,=
con
la mirada puesta principalmente en el contexto latinoamericano, donde la
profundización de la desigualdad económica y por ende de la
injusticia social, crea retos muy específicos para la educació=
;n
ante el advenimiento de la inteligencia artificial con miras hacia la defen=
sa
de los derechos humanos y una propensión necesaria hacia el bienestar
subjetivo de las personas.
RESULTADOS
Infografía sobre los resultados de la investigación:
Educación crítica e impacto de la inteligencia artificial
en los derechos
humanos y el bienestar subjetivo de las personas
Nota: La infografía muestra los
diferentes desafíos de la educación crítica, desde la
reflexión y el pensamiento, ante la integración de la
inteligencia artificial en diversas áreas. Imagen diseñada con
asistencia de NotebookLM (enero 23 de 2026) a p=
artir
de los resultados de la investigación.
La literatura explorada permite evidenciar las
relaciones poco visibles entre la educación, el pensamiento
crítico, la inteligencia artificial, el bienestar subjetivo y los
derechos humanos, cuyos puntos de encuentro a simple vista improbables, eme=
rgen
desde la dimensión humana que los sucesos históricos recientes
admiten, a partir de la necesidad de cuestionar el impacto que la inteligen=
cia
artificial está ocasionando en el bienestar subjetivo de las persona=
s,
desde la perspectiva individual, y en la garantía de los derechos
humanos, desde un enfoque social.
Allí, la educación debe jugar un=
rol
preponderante para responder adecuadamente ante estas realidades, tomando c=
omo
baluarte el desarrollo del pensamiento crítico de la sociedad en su
conjunto.
Teniendo en cuenta que la inteligencia artific=
ial
generativa ha irrumpido con fuerza en todas las áreas y la
educación no ha sido la excepción, muchos procesos relacionad=
os
con el sistema educativo han comenzado a acoger con esperanza las alternati=
vas
que brindan las diferentes herramientas basadas en este tipo de
tecnologías.
En ese sentido, acciones como la evaluaci&oacu=
te;n
realizada a los estudiantes, durante las diferentes etapas del proceso de
enseñanza-aprendizaje, se han visto impactadas por opciones que
incluyen, desde la calificación automatizada de pruebas estandarizad=
as o
exámenes de índole formativo, hasta la implementación =
de
tutores virtuales de aprendizaje.
Así mismo, los estudiantes tambié=
;n
son usuarios de la inteligencia artificial, bien sea como apoyo para el
aprendizaje o simplemente como generador de respuestas inmediatas.
Tratándose del segundo caso, muchos profesores ven con desconfianza =
la
realización de tareas, ensayos y otros productos de aprendizaje donde
parece imperar el plagio, con las consabidas consecuencias en el nivel de l=
ogro
de los estudiantes, la pérdida de habilidades y las brechas en el
alcance de competencias.
Sin embargo, se puede intuir que estas no son =
las
únicas preocupaciones que asaltan al sector educativo, toda vez que,=
las
repercusiones de este tipo de conductas, relativas al sentido ético =
del
uso de la inteligencia artificial generativa en la educación,
trascienden las fronteras del aula de clase y de la escuela, para adentrars=
e en
la sociedad misma, afectando el bienestar subjetivo de las personas y de una
manera más amplia la garantía de los derechos humanos.
Ahora bien, para comenzar a esbozar el origen =
de
las relaciones entre el uso de la inteligencia artificial generativa, el
bienestar subjetivo y los derechos humanos dentro del aula de clase, al igu=
al
que en los claustros educativos, cabe destacar que:
El desarrollo de aplicaciones basadas en
inteligencia artificial (IA) ha sido acelerado en los últimos
años, uno de los ámbitos en donde estas nuevas herramientas se
han consolidado es el educativo, ya que han cambiado los paradigmas
pedagógicos tradicionales, abriendo nuevas posibilidades en el sector
académico (Cadena-Madrid, P., & Flores-Quinde, J. 2024. p. 175).=
Y tal como se había mencionado, las
resoluciones que puedan tomar los educadores o las direcciones educativas
acerca del manejo más adecuado de esta tecnología, dependen d=
e la
forma en la que se entienda su rol, tanto en el nivel de las labores
administrativas como en lo referente a las actividades propias de los maest=
ros.
Por lo tanto, los cambios de enfoque
pedagógico necesarios para incluir tareas desarrolladas por la
inteligencia artificial generativa en las estrategias de
enseñanza-aprendizaje, implican la reformulación del
currículo, en muchos casos, y en otros la adaptación de los m=
odelos
evaluativos para fomentar el pensamiento crítico de los estudiantes,
considerando las acciones que bien puede realizar la tecnología, no =
como
sustituto del estudiante o del docente sino más bien como un nuevo a=
ctor
en la dinámica educativa.
Al respecto, “los estudiantes de una
universidad particular en México comprenden, critican y proponen tem=
as
con respecto al uso de inteligencias artificiales generativas en el
ámbito de la educación superior relacionados con la alfabetiz=
ación
digital desde una base teórica humanista” (Gutiérrez, M=
.,
& Amador, A. 2025. p. 68). Es decir, que el involucramiento de los
estudiantes en el descubrir de la tecnología al servicio de las
personas, desde una perspectiva donde prevalezcan los derechos humanos y el
bienestar subjetivo, constituye un ejemplo interesante de la
configuración social en torno a la cual se deben supeditar los produ=
ctos
del aprendizaje, puesto que varios de sus componentes ya pueden ser creados
mediante inteligencia artificial.
En primer lugar, la implementación de la
inteligencia artificial en el ámbito educativo parece ser un hecho, =
por
encima de la resistencia al cambio que esto pueda ocasionar, de tal modo qu=
e,
es responsabilidad de la administración educativa establecer pol&iac=
ute;ticas
institucionales para determinar el “uso de la inteligencia artificial
como complemento para la innovación, como mecanismo para potenciar la
creatividad y la eficiencia, que debe ser utilizado bajo estrictos
condicionamientos éticos, sin que esto sustituya la capacidad cr&iac=
ute;tica
y la autonomía” (García, J. O., López, S. M., Et=
al.
2025. p. 468), propendiendo por una integración adecuada entre comun=
idad
educativa e inteligencia artificial, mediante la cual se propicien espacios=
de
dialogo participativo, con todos los estamentos involucrados, y se establez=
can
los mecanismos necesarios para prevenir posibles riesgos derivados del uso
indiscriminado de la inteligencia artificial generativa.
No obstante, “para interactuar de manera
efectiva con estas tecnologías, necesitamos ser conscientes de nuest=
ros
propios procesos de pensamiento y ser capaces de evaluar críticament=
e la
información que nos proporcionan” (Fondón-Ludeña=
, A.
2024. p. 3), siendo imperativo que la metacognición ocupe un lugar
preponderante en la planificación académica y los sistemas de
evaluación, puesto que al reflexionar de manera individual acerca del
aprendizaje, se pueden plantear cuestionamientos acerca de las relaciones e=
ntre
el uso de la inteligencia artificial, las metas personales, los aprendizaje=
s,
las motivaciones y la percepción subjetiva de la realidad, que
está claramente vinculada al bienestar propio.
En ese orden de ideas, en el estado actual de
desarrollo de la inteligencia artificial generativa se puede asegurar que
aún tiene muchas posibilidades de incurrir en errores y sesgos de la
información, por lo que:
La búsqueda de la verdad requiere
triangular información desde distintas fuentes. Percibir la IAGen como un oráculo impide profundizar en
contenidos desde diversas fuentes. Los estudiantes deben desarrollar su
competencia informacional para acceder a un conocimiento fiable con el que
hacerse preguntas y fundamentar nuevos argumentos. (Serrano, J. L., &
Moreno-García, J. 2024. p. 14).
Por lo que es de vital importancia contrastar =
los
conocimientos propios de los estudiantes con las informaciones obtenidas
mediante la inteligencia artificial generativa, además de integrar o=
tras
fuentes de datos para estimular el pensamiento crítico y la
reflexión.
Por consiguiente, los aspectos pedagógi=
cos,
institucionales, personales, sociales y de gestión del conocimiento =
son
elementos relevantes a tener en cuenta durante la transición actual,=
en
la cual la dinámica relacional entre personas e inteligencia artific=
ial
puede ser fundamental para el bienestar subjetivo y el goce efectivo de los
derechos humanos.
Lo anterior es importante, ya que “estas
plataformas han conseguido introducirse en la cotidianidad de las personas y
han pasado a tener un papel clave en la evolución psicosocial de las
mismas” (Torronteras, R., Et al. 2025. p. 9), o sea que no se trata
solamente de políticas organizacionales a nivel educativo, de
lineamientos o de procedimientos, sino de realidades que sobrepasan los
límites de la institución educativa, permeando el bienestar de
las personas, sus vínculos personales y sociales, lo mismo que las
capacidades para valorar y defender los derechos humanos en un escenario gl=
obal
muy convulsionado.
Más allá de dichas consideracion=
es,
es fundamental analizar cómo la inteligencia artificial puede transf=
ormar
las prácticas pedagógicas tradicionales, no solo como herrami=
enta
de apoyo, sino como agente que redefine roles y relaciones en el aula. La
automatización de tareas administrativas y evaluativas puede liberar
tiempo para que los docentes se enfoquen en aspectos más creativos y
personalizados del aprendizaje, pero también plantea interrogantes s=
obre
la deshumanización del proceso educativo y la posible pérdida=
de
contacto directo entre educadores y educandos. En este sentido, la intelige=
ncia
artificial debe ser concebida como un complemento que potencie la labor
docente, no como un sustituto.
Asimismo, la incorporación de la
inteligencia artificial en la educación abre un debate sobre la equi=
dad
en el acceso a estas tecnologías. Las brechas digitales existentes
pueden profundizarse, si no se implementan políticas inclusivas que
garanticen a todos los estudiantes, independientemente de su contexto
socioeconómico, el acceso a herramientas y formación adecuada=
s.
Esto implica no solo proveer infraestructura tecnológica, sino
también desarrollar competencias digitales críticas que permi=
tan
a los estudiantes navegar y cuestionar el entorno digital de manera segura y
ética.
Desde una perspectiva ética, la
gestión de datos personales y la privacidad adquieren una
dimensión crucial. La recopilación masiva de datos para alime=
ntar
sistemas de inteligencia artificial debe estar regulada por normativas clar=
as
que protejan la información sensible de los estudiantes y eviten usos
indebidos o discriminatorios. La transparencia en los algoritmos y la
posibilidad de auditoría son elementos esenciales para garantizar la
confianza en estas tecnologías.
Por ello, es necesario considerar el impacto
psicológico y emocional que la interacción constante con sist=
emas
de inteligencia artificial tiene en los estudiantes. La dependencia excesiv=
a de
estas herramientas puede afectar tanto la autonomía como la capacidad
crítica, mientras que la presencia de algoritmos influyentes en la
modelación de comportamientos y preferencias puede influir en la
construcción de la identidad, además de afectar la
percepción del entorno social. Por ello, la educación en
inteligencia artificial debe incluir también la formación en
habilidades socioemocionales y en la reflexión ética sobre el=
uso
de la tecnología.
En segundo lugar, la relación personal =
con
la inteligencia artificial puede incluir diversos riesgos asociados a
“temas recurrentes como la facilidad de acceso, la gratificació=
;n
inmediata y la necesidad de mantenerse actualizado, que actúan como =
motivadores
para el uso excesivo de la IA” (Avendaño Porras, V. 2024. p. 8=
2),
y pueden desembocar en problemas de salud mental, paradójicamente, un
campo en el que la inteligencia artificial generativa está asumiendo=
un
rol destacado, también cuestionable.
Con todo, las afectaciones de esta índo=
le
implican un reconocimiento previo del bienestar subjetivo desde sus
connotaciones personales y psicológicas, porque “la
percepción positiva del bienestar físico, social y psicol&oac=
ute;gico,
la expresión emocional, el autoconcepto de seguridad personal y el n=
ivel
de productividad individual se conciben como elementos de carácter
subjetivo” (Díaz Pacheco, C., Conejeros Solar, M., Et al. 2024=
. p.
2), al igual que “la satisfacción que obtienen las personas al
acceder a educación, vivir en un ambiente seguro, adquirir bienes
durables, o sentir que sus hijos crecen en un ambiente sano”
(Martínez, L. 2024. p. 98); configurando un entramado de realidades
asociadas a la manera en que las personas perciben sus contextos y reaccion=
an
frente a ellos, incluyendo las posibilidades y los recursos limitados de los
que disponen para mejorar sus vidas.
Luego, “las personas probablemente
construyen un modo básico y estable de relacionarse con la vida, sus
éxitos y sus dificultades, que responde a sus predisposiciones y a s=
us
necesidades de logro” (Murillo Muñoz, J. 2024. p. 15), siempre=
con
los condicionamientos propios de las desigualdades sociales y económ=
icas
estructurales, que restringen las oportunidades para alcanzar niveles de
desarrollo humano, relativos al bienestar subjetivo.
Si bien, el bienestar subjetivo tiene un
componente primordial basado en la percepción de la realidad, esta
depende también de las decisiones relacionadas con diferentes tipos =
de
políticas públicas, a efectos de promover el acceso equitativ=
o a
la oferta de servicios en diferentes territorios donde las condiciones para
alcanzar una vida digna no están garantizadas, entendiendo que en la
actualidad persisten territorios carentes de servicios básicos de
educación, salud, energía eléctrica, internet e incluso
las vías de comunicación son deplorables o inexistentes.
Por ende, es necesario comprender que
“determinadas categorías y dimensiones del bienestar objetivo,
impactan en forma diferente en el bienestar subjetivo de las personas
según cada región. Esto puede tener importantes implicancias =
en
la determinación de las políticas públicas”
(Camacho, M., Et al. 2024. p. 321), de modo que, la influencia relacionada =
con
el uso de la inteligencia artificial generativa en el bienestar subjetivo de
las personas depende también de la disponibilidad de esta
tecnología en diferentes territorios y de las condiciones particular=
es
de las comunidades que los habitan, pudiendo inferir que no todas las perso=
nas
estarán expuestas a los mismos riesgos, pero tampoco dispondrá=
;n
de los mismos beneficios.
Por eso es imperativo considerar que se deben:=
Hacer
visibles las brechas poblacionales en cuanto al acceso a la IA dentro de la
educación, la cuantificación de personas que en las comunidad=
es
utilicen estas tecnologías, el apoyo de los organismos gubernativos =
para
expandir su uso, las resultas en cuanto a eficacia de la inteligencia
artificial como medio para el aprendizaje (Prince-Torres, Á. C. 2024=
. p.
15)
En consecuencia, factores como la educaci&oacu=
te;n,
la disponibilidad de recursos tecnológicos, al igual que, otros aspe=
ctos
tanto personales como de la estructura social y económica, repercute=
n en
el bienestar subjetivo de los individuos. Estos elementos además pue=
den
ser medidos por la inteligencia artificial en la búsqueda de
diagnósticos relativos a la salud mental de las personas, que se aso=
cian
al bienestar subjetivo, para ello, estas tecnologías recurren a
“la vinculación de los datos sobre bienestar subjetivo con dat=
os
objetivos, lo que incluye, entre otros, datos de localización, varia=
bles
económicas o marcadores biológicos tales como la variabilidad=
del
ritmo cardíaco, reconocimiento de las emociones faciales, etc.”=
; (Ludwigs, K. 2018. p. 19), permitiendo así que =
las
complejas e intrincadas conexiones entre los seres humanos, dentro de sus
correspondientes marcos históricos, se reduzcan a informaciones
cuantificables para los análisis estadísticos o
probabilísticos emanados de herramientas tecnológicas basadas=
en
inteligencia artificial.
Aunque la realidad induzca a pensar que la
interrelación entre personas e inteligencia artificial generativa es=
un
hecho consumado, podría inferirse que es más bien un
vínculo en construcción, donde le corresponde al ser humano t=
omar
la responsabilidad de exigirles a quienes les compete, que tomen las medidas
pertinentes y definan los marcos regulatorios necesarios para defender los
enfoques humanísticos de la educación, con una visión
ampliada de su impacto desde lo social, para que el bienestar subjetivo ocu=
pe
un lugar prioritario en la vida de las personas como protagonistas del deve=
nir
histórico.
En este punto, teniendo claras las relaciones
entre educación y bienestar subjetivo con el advenimiento de la
inteligencia artificial generativa en el campo académico y formativo,
pero también en los procesos psicológicos de las personas, co=
bra
importancia el papel que desempeñan los sistemas de salud en la
comprensión del bienestar psicológico, en virtud de su
preponderancia dentro del bienestar subjetivo.
A este respecto, se tiene que actualmente la
incursión de la inteligencia artificial generativa en los tratamient=
os
psicológicos o en el uso de modelos de lenguaje para atender procesos
psicoterapéuticos abre un debate frente a la pertinencia de estas
aplicaciones, por ello, “se sugiere que las políticas
públicas destinadas a la integración de IA en salud mental
prioricen el bienestar del paciente y eviten la reducción de la
experiencia terapéutica a modelos de atención
automatizados” (Menna, M. L., &
Fernández, M. 2025. p. 139), ya que “la inteligencia artificia=
l no
puede reemplazar completamente la intervención humana en el
ámbito psicológico. Se toma esta postura, debido a que la IA =
no
puede intervenir a nivel subjetivo y empatizar con la historia personal de =
los
consultantes” (Campana Ruiz, G. T., Lamas Vidal&=
oacute;n,
V. M., Et al. 2024. párr. 4); volviendo al punto de la experiencia
intersubjetiva de las relaciones humanas y a lo imperioso de salvaguardar l=
os
criterios éticos en el uso de la inteligencia artificial generativa,=
que
ni en el campo educativo ni en el de la salud mental (tratándose del
bienestar subjetivo) puede, ni debe, sustituir a la acción humana por
datos obtenidos mediante cámaras, voz, texto o ningún otro me=
dio
que empleen estas tecnologías para emitir conceptos acerca de
percepciones, carentes de las intersubjetividades que permean y enriquecen
todas las relaciones humanas.
Dicho de otra forma, la creciente
imbricación entre las personas y la inteligencia artificial generati=
va
no sólo plantea desafíos técnicos o pedagógicos,
sino que abre un campo de tensiones profundamente humanas, donde se entrecr=
uzan
hábitos de uso, expectativas subjetivas y transformaciones
socioculturales aceleradas. La facilidad de acceso, la inmediatez en la
obtención de respuestas y la presión por mantenerse actualiza=
do
(rasgos característicos de la cultura digital contemporánea) =
no
operan de manera aislada, sino que se articulan con dinámicas
psicológicas preexistentes, como la búsqueda de
validación, la evitación del esfuerzo cognitivo o la necesida=
d de
certidumbre en contextos de incertidumbre. En este sentido, la inteligencia
artificial generativa no solo responde a demandas individuales, sino que
también las amplifica, configurando un ecosistema donde la gratifica=
ción
inmediata puede desplazar procesos reflexivos más lentos y profundos=
.
Este fenómeno adquiere especial relevan=
cia
cuando se analiza desde la perspectiva del bienestar subjetivo. La literatu=
ra
consultada muestra que la percepción de bienestar no depende exclusi=
vamente
de condiciones materiales, sino de la manera en que las personas interpretan
sus experiencias, evalúan sus logros y se sitúan frente a sus
posibilidades reales de acción. En este marco, la inteligencia
artificial generativa puede convertirse en un mediador simbólico que
influye en la autopercepción, en la toma de decisiones y en la forma=
en
que los individuos evalúan su propio desempeño. La dependencia
excesiva de estas tecnologías podría erosionar la confianza en
las propias capacidades, especialmente en contextos donde las desigualdades
estructurales ya limitan las oportunidades de desarrollo personal y social.=
También la relación entre bienes=
tar
subjetivo y políticas públicas adquiere una nueva complejidad
porque la distribución desigual de infraestructura tecnológic=
a,
con territorios que aún carecen de servicios básicos como
conectividad, energía o educación de calidad, deriva en
escenarios donde la inteligencia artificial puede convertirse en un factor =
más
de exclusión. Mientras algunos grupos sociales acceden a herramientas
que potencian su aprendizaje, productividad y bienestar, otros permanecen al
margen, profundizando brechas históricas. Esta asimetría afec=
ta
el acceso a la tecnología, en tanto que, impide la capacidad de
comprenderla, utilizarla críticamente y beneficiarse de ella.
En este escenario, la medición del
bienestar subjetivo mediante herramientas basadas en inteligencia artificial
introduce un debate ético de gran envergadura. La reducción de
experiencias humanas complejas a datos cuantificables, tales como, emociones
detectadas por cámaras, patrones de voz, indicadores fisiológ=
icos
o correlaciones estadísticas, puede resultar útil para ciertos
análisis, pero también corre el riesgo de simplificar en exce=
so
la riqueza de la vida subjetiva. La historia personal, los vínculos
afectivos, las trayectorias de vida y los contextos socioculturales no pued=
en
ser plenamente capturados por algoritmos, por más sofisticados que s=
ean.
Esta tensión entre lo medible y lo vivible plantea preguntas
fundamentales sobre los límites de la intervención
tecnológica en ámbitos íntimos de la existencia humana=
.
A su vez, la expansión de la inteligenc=
ia
artificial generativa hacia el campo de la salud mental introduce dilemas
adicionales. Aunque estas tecnologías pueden ofrecer apoyo
complementario. Por ejemplo, facilitando el acceso a información,
promoviendo hábitos de autocuidado o detectando señales tempr=
anas
de malestar; su uso indiscriminado podría trivializar la complejidad=
del
sufrimiento humano. La relación terapéutica, basada en la
empatía, la escucha activa y la construcción conjunta de sent=
ido,
no puede ser replicada por sistemas que operan sobre patrones
lingüísticos o correlaciones estadísticas. La subjetivid=
ad
no es un dato, por el contrario, es una experiencia encarnada, situada y
relacional.
Por eso, la discusión sobre la intelige=
ncia
artificial generativa no puede limitarse a su eficacia técnica o a su
potencial innovador. Debe incluir una reflexión profunda sobre los
marcos regulatorios necesarios para proteger la dignidad humana y garantiza=
r la
equidad en el acceso, evitando que la automatización desplace proces=
os
que requieren sensibilidad, juicio ético y comprensión
contextual. La educación y la salud mental son campos especialmente =
sensibles,
donde la tecnología debe ser un apoyo, no un sustituto; donde el
bienestar subjetivo debe ser entendido como un fin en sí mismo, no c=
omo
un indicador instrumental para la toma de decisiones automatizadas.
Adicionalmente, la relación entre seres=
humanos
e inteligencia artificial generativa debe ser concebida como un proceso en
construcción, no como un destino inevitable. La manera en que esta
relación evolucione dependerá de decisiones colectivas; de las
políticas públicas que se adopten, de las prácticas
pedagógicas que se promuevan, de la capacidad crítica que se
fomente en la ciudadanía y del compromiso ético de quienes las
diseñan, implementan y regulan.
En tercer lugar, dado que los derechos humanos
constituyen un marco común a nivel mundial, sin el cual sería
imposible mantener el equilibrio social, es fundamental reconocer la
importancia de dialogar en torno a la necesidad de defenderlos y garantizar=
los,
por medio de los mecanismos dispuestos para tal fin, sin menoscabo de la
concientización ineludible en los espacios educativos, toda vez que =
es
fundamental “garantizar que la tecnología se diseñe para
servir a las personas de acuerdo con los marcos de derechos humanos acordad=
os a
escala internacional, y que se saque provecho de las tecnologías dig=
itales
como un bien común” (Gallent-Torre=
s, C.,
Arenas, B., Et al. 2024. p. 14), no a manera de instrumento para reforzar l=
os
mecanismos de control social que agudicen las desigualdades estructurales
imperantes en el mundo sino para permitir mayores posibilidades de ampliar
horizontes hacia el pensamiento crítico, utilizando la tecnolog&iacu=
te;a
como una herramienta tendiente al mejoramiento de las condiciones de vida de
las personas, como podría suceder si se emplea como soporte para el =
aprendizaje,
los diagnósticos médicos y en múltiples esferas donde =
su
utilidad podría representar progresos para extender los beneficios de
las comunidades en virtud del acceso a servicios básicos, aprovechan=
do
todo el potencial de sus saberes ancestrales, así como, su capital s=
ocial
y cultural.
De lo contrario, “la IA potenciará
aún más los mecanismos de control social formales e informale=
s de
gobiernos autoritarios, para deterioro de los espacios de participaci&oacut=
e;n
democrática y liderazgo ciudadano logrados históricamenteR=
21;
(Arbeláez Campillo, D., et al. 2021. p. 509), puesto que puede emple=
arse
para influenciar el pensamiento de las personas e inducirlas a tomar decisi=
ones
contrarias al bienestar colectivo, profundizando las crisis medioambientale=
s,
la violencia y la discriminación.
Desde este punto de vista es importante:
Fomentar
cuestionamientos e interrogantes que conlleven a tomar conciencia y actuar
sobre las complicadas implicaciones de la IA en la educación y el
desarrollo humano, la pérdida de empleos, la profundización d=
e la
desigualdad, el racismo, la segregación, la pobreza, la violencia,
optando por la búsqueda de la paz, la garantía de los derechos
humanos, la interculturalidad y la dignidad (Medina González, H. 202=
5.
p. 442)
En cierto modo, existen serias dudas má=
s o
menos generalizadas acerca de la intervención de la tecnologí=
a en
algunos aspectos sociales de relevante importancia para el bienestar de las
personas, e incluso se estima que “la inteligencia artificial incide =
de
manera negativa para las personas y vulnera sus derechos humanos” (Fl=
or
Flores, A. 2024. p. 5), sobre todo en lo que respecta al uso de cáma=
ras
integradas para identificar a las personas en áreas públicas
mediante reconocimiento facial o de voz, sensores para determinar patrones =
de
comportamiento y campañas políticas o comerciales que condici=
onan
las decisiones de los individuos, a través de sus preferencias en re=
des
sociales u otras aplicaciones.
Entre ellos, se destaca que en el
“fenómeno de vigilancia a través de la inteligencia
artificial, se encuentra una disparidad entre desarrollo tecnológico=
y
derechos humanos, que, de continuar, podría ocasionar graves
consecuencias en las libertades de los individuos” (Aguilar, O. 2021.=
p.
84), porque implica ciertos conceptos primordiales para entender las libert=
ades
de los ciudadanos y la magnitud de sus derechos como baluartes para garanti=
zar
su dignidad.
Por una parte, se cree que “los sistemas=
de
IA incurren en sesgos discriminatorios y, en particular, en sesgos de
género, que presentan diferencias respecto a los sesgos existentes c=
on
carácter general en las personas y en la sociedad” (Lousada, F. 2024. p. 97), siendo este un riesgo muy
peligroso en un mundo donde se han establecido acuerdos para reducir las
brechas de género, por ejemplo en
términos de escalas salariales, participación política=
y
cultura del cuidado, además de involucionar hacia sistemas patriarca=
les
que desconozcan los derechos humanos sexuales y reproductivos de toda la
población sin menoscabo de sus características
fenotípicas, culturales o económicas.
Por otro lado, pareciera que “cada
día se materializa más el hecho de que también puede
incidir de manera negativa para las personas, vulnerando derechos fundament=
ales
como el derecho a la intimidad, a la libertad de expresión, a la igu=
aldad,
al debido proceso” (Flor Flores, A. 2024. p. 6), puesto que la vigila=
ncia
masiva implica reducir de manera significativa los espacios personales de l=
os
individuos para expresarse libremente, además de someterles ante una
maraña de informaciones difícil de discernir, preparada
justamente para influir en sus decisiones, hábitos y comportamientos=
.
Por lo tanto, es imperativo que se propenda por
una mayor comprensión en los usos de la inteligencia artificial para
regular su alcance en el tratamiento de la información biomét=
rica
de las personas, ya que de otro modo “sería inaceptable que IA=
se
tornará paulatinamente en un dispositivo de dominación,
independientemente de sus múltiples posibilidades de desempeño
presentes en toda clase de dispositivos tecnológicos”
(Arbeláez Campillo, D., Villasmil Espinoza, J., Et al. 2021. p. 511),
incluyendo su empleo dentro de los procesos educativos en los que, incluso,=
las
opiniones de los estudiantes sirven como insumo para que los tutores virtua=
les
de aprendizaje alimenten los algoritmos y produzcan nuevas informaciones, c=
on
los sesgos que se han mencionado previamente.
Por esto, “es necesario un enfoque basad= o en los derechos humanos para la gobernanza de la IA, que vaya más allá de los principios éticos y se ancle en las obligaciones legales internacionales existentes” (Almache Barreiro, J. C. 2024. p. 24), al interior de las cuales deben existir mecanismos claros de control al alcance de la inteligencia artificial para salvaguardar los derechos humano= s. Para alcanzarlo, los estamentos educativos deben valorar la resignificación de los espacios de diálogo para la construcción del pensamiento crítico donde se cuestione el ro= l de estas tecnologías en los distintos ámbitos del conocimiento y= en todas las esferas de las relaciones humanas, buscando el bienestar subjetiv= o de las personas, mediante un empleo consciente de la inteligencia artificial.<= o:p>
Ciertamente, las relaciones que se presentaron=
en
la infografía inicial dan cuenta de la exploración teó=
rica
llevada a cabo, expuesta detalladamente, en la medida en que la
educación es un cimiento básico para la sociedad y debe promo=
ver
los cambios necesarios para garantizar los derechos humanos, además =
de
mejorar las percepciones de bienestar subjetivo de las personas, disponiend=
o de
todos los recursos que tenga a su alcance, incluyendo la inteligencia
artificial generativa, para asegurar que las comunidades puedan expresar sus
ideas, construyendo saberes desde la ancestralidad, el desarrollo de la cie=
ncia
y la armonía con el medio ambiente, con miras hacia la
determinación de sociedades más justas y equitativas donde el
pensamiento crítico, entendido desde la óptica del humanismo,
contribuya con el equilibrio económico y social.
Un examen más detenido del víncu=
lo
entre inteligencia artificial y derechos humanos revela que el desafí=
;o
contemporáneo no radica únicamente en la adopción
tecnológica, sino en la capacidad de las sociedades para integrar es=
tos
sistemas dentro de marcos normativos y éticos que preserven la digni=
dad
humana. La expansión acelerada de la inteligencia artificial ha pues=
to
en evidencia una tensión estructural; mientras los instrumentos
internacionales de derechos humanos avanzan con relativa lentitud, las
tecnologías digitales se transforman a un ritmo que supera la capaci=
dad
de regulación, supervisión y comprensión públic=
a.
Esta brecha genera un terreno fértil para prácticas que pueden
erosionar libertades fundamentales si no se abordan con rigor.
En tales circunstancias, la educación
adquiere un papel estratégico. No basta con incorporar herramientas
digitales en los procesos formativos; es indispensable promover una
alfabetización crítica que permita a estudiantes, docentes y
comunidades comprender cómo operan los algoritmos, qué intere=
ses
los configuran y cuáles son sus implicaciones sociales. La inteligen=
cia
artificial, al intervenir en procesos de evaluación,
personalización del aprendizaje o gestión institucional, puede
reproducir desigualdades históricas si no se acompaña de
mecanismos de transparencia, auditoría y participación
democrática. La formación crítica, por tanto, no es un
complemento, sino una condición para que la tecnología contri=
buya
al bienestar colectivo.
Del mismo modo, la creciente dependencia de
sistemas automatizados para la toma de decisiones públicas y privadas
plantea interrogantes sobre la redistribución del poder. La
concentración de datos en manos de corporaciones transnacionales y
gobiernos con escasa rendición de cuentas puede derivar en nuevas fo=
rmas
de vigilancia y control social. La recopilación masiva de
información biométrica, la identificación automatizada=
en
espacios públicos y la segmentación de contenidos según
perfiles psicológicos o conductuales son prácticas que, sin u=
na
regulación estricta, pueden vulnerar el derecho a la intimidad, limi=
tar
la libertad de expresión y restringir la participación
política; ya que la inteligencia artificial no solo interpreta datos,
también modela comportamientos y condiciona imaginarios sociales.
Otro aspecto crítico es la
reproducción de sesgos algorítmicos. Aunque se suele afirmar =
que
los sistemas de inteligencia artificial son objetivos, en realidad dependen=
de
datos históricos que reflejan desigualdades de género, raza,
clase y territorio. Cuando estos sesgos se incorporan en algoritmos utiliza=
dos
para seleccionar personal, asignar créditos, vigilar poblaciones o
recomendar contenidos educativos, se amplifican injusticias que ya afectan =
de
manera desproporcionada a grupos históricamente marginados. La prome=
sa
de neutralidad tecnológica se desvanece cuando se observa que los
algoritmos pueden consolidar estereotipos y reforzar estructuras patriarcal=
es o
discriminatorias.
Frente a este panorama, la gobernanza de la
inteligencia artificial debe trascender los códigos de ética
voluntarios y anclarse en obligaciones jurídicas vinculantes. Los ma=
rcos
internacionales de derechos humanos ofrecen una base sólida para exi=
gir
transparencia, responsabilidad y mecanismos de reparación ante
daños causados por sistemas automatizados. Sin embargo, para que est=
as
garantías sean efectivas, es necesario fortalecer las capacidades
institucionales, promover la participación ciudadana en la toma de
decisiones tecnológicas y asegurar que las comunidades (incluidas
aquellas con saberes ancestrales y formas propias de organización
social) tengan voz en la definición de los usos legítimos de =
la
inteligencia artificial.
De ahí que, la construcción de
sociedades más justas y equitativas exige repensar la relación
entre tecnología, bienestar y sostenibilidad. La inteligencia artifi=
cial
puede contribuir a mejorar la calidad de vida si se orienta hacia la
reducción de brechas sociales, la protección del medio ambien=
te y
la promoción de la interculturalidad. Pero esto sólo ser&aacu=
te;
posible si se reconoce que el pensamiento crítico, la
deliberación democrática y el respeto por la diversidad cultu=
ral
son pilares indispensables para evitar que la tecnología se conviert=
a en
un instrumento de dominación. La educación, entendida como un
espacio de diálogo y emancipación, es el terreno donde estas
transformaciones pueden germinar con mayor fuerza.
DISCUSIÓN
Las relaciones entre educación, pensami=
ento
crítico, derechos humanos, bienestar subjetivo e inteligencia
artificial, parecen difusas e inexactas. Sin embargo, al reconocer que la
inteligencia artificial generativa en la educación está
incidiendo en la aparición de diversos cambios, a nivel
pedagógico, administrativo y procesual, ampliando su influencia hacia
las esferas del bienestar subjetivo, debido a sus repercusiones en el orden
psicológico y social, además de afectar la garantía de=
los
derechos humanos, se verifica la necesidad de promover el pensamiento
crítico desde una concepción amplia de la educación.
Esta concepción implica un propó=
sito
determinado, que, desde el pensamiento crítico, fomente e inspire
espacios de dialogo donde las personas puedan:
Romper paradigmas hacia una mejor
comprensión del desarrollo humano en la legítima búsqu=
eda
del bienestar, sobre la base del respeto a los derechos humanos, el cuidado=
del
medio ambiente y el rescate de conocimientos ancestrales, que, entre otros,=
se
fortalezcan desde la academia con la mediación de las nuevas
tecnologías. (Medina González, H. 2024. p. 676).
Consecuentemente, una perspectiva más
humanista y menos tecnocrática frente al impacto de la inteligencia
artificial en el bienestar subjetivo, con sus correspondientes implicaciones
psicológicas y sociales, extendidas hacia la garantía de los
derechos humanos, desde aplicaciones reales y contemporáneas como la
vigilancia masiva que ha derivado en sesgos asociados a la
estigmatización de ciertas poblaciones, con enormes repercusiones en=
la
violencia racial y de género, puede mitigar estos efectos favorecien=
do
el alcance de propósitos encaminados hacia nuevos paradigmas sociale=
s,
donde se prioricen la salud mental de las personas y las posibilidades para
desarrollarse como seres humanos en condiciones equitativas de dignidad.
De esta manera, las relaciones planteadas son
claras y se hace necesario que la educación se dirija hacia este tip=
o de
metas, por encima de alinearse con intereses netamente utilitaristas que
desconocen la pertinencia del pensamiento crítico ante las amenazas =
que
se ciernen sobre el bienestar subjetivo y los derechos humanos
A tal efecto, “la educación y la
concienciación pública son decisivos para empoderar a las
personas en el uso de la IA y así garantizar la protección de=
sus
derechos humanos” (Rudas Murga, C.&n=
bsp;
2024. p. 134), estructurando nuevas pedagogías y procesos de
enseñanza – aprendizajes acordes con las realidades de los
territorios, en escenarios que riñan con las distopias de un mundo c=
on
seres humanos automatizados, dominados por liderazgos autoritarios bajo el
control de mecanismos tecnológicos.
Por lo tanto, la articulación entre
educación, pensamiento crítico, derechos humanos, bienestar
subjetivo e inteligencia artificial configura un campo de análisis
complejo que demanda enfoques interdisciplinarios y perspectivas situadas.
Aunque estos dominios suelen abordarse de manera fragmentada, los resultado=
s de
esta investigación evidencian que la expansión acelerada de la
inteligencia artificial está transformando simultáneamente los
procesos educativos, las dinámicas psicosociales y las condiciones
estructurales que sustentan el ejercicio de los derechos humanos. Esta
convergencia obliga a repensar los marcos pedagógicos, éticos=
y
políticos desde los cuales se interpreta el papel de la
tecnología en la vida contemporánea.
En el ámbito educativo, la
incorporación de la inteligencia artificial ha generado transformaci=
ones
significativas en las prácticas de enseñanza, evaluació=
;n y
gestión institucional. Sin embargo, estos cambios no pueden asumirse
como meras innovaciones técnicas, sino como procesos socioculturales=
que
reconfiguran la relación entre docentes, estudiantes y conocimiento.=
La
literatura analizada muestra que la automatización de tareas
académicas, la disponibilidad de tutores virtuales y la generaci&oac=
ute;n
de contenidos mediante IA plantean desafíos epistemológicos y
éticos que requieren ser abordados desde una pedagogía
crítica. Esta debe promover la autonomía intelectual, la
capacidad de discernimiento y la reflexión metacognitiva, evitando q=
ue
la tecnología sustituya el juicio humano o debilite la formaci&oacut=
e;n
ética y ciudadana.
En relación con el bienestar subjetivo,=
los
hallazgos indican que la interacción cotidiana con sistemas de IA
influye no solo en los procesos cognitivos asociados al aprendizaje, sino
también en dimensiones emocionales, motivacionales y relacionales. La
gratificación inmediata, la dependencia funcional y la
sobreexposición informativa pueden afectar la salud mental,
especialmente en contextos donde persisten desigualdades estructurales y br=
echas
digitales. Esto confirma que el bienestar subjetivo no puede comprenderse
únicamente como una experiencia individual, sino como un fenó=
meno
condicionado por factores sociales, económicos y tecnológicos=
. En
consecuencia, la educación debe fomentar prácticas reflexivas=
que
permitan a los sujetos reconocer cómo la tecnología incide en=
su
percepción de la realidad, en sus expectativas de logro y en su sent=
ido
de agencia personal.
En el plano de los derechos humanos, se revelan
tensiones profundas entre el potencial democratizador de la IA y los riesgos
asociados a la vigilancia masiva, la discriminación algorítmi=
ca y
la manipulación de la información. La ausencia de marcos
regulatorios robustos puede derivar en vulneraciones a la intimidad, la
igualdad, la libertad de expresión y el debido proceso. Por ello, se
vuelve imprescindible avanzar hacia modelos de gobernanza tecnológica
basados en derechos humanos, que trasciendan los principios éticos
declarativos y se anclen en obligaciones jurídicas vinculantes. La
educación, en este sentido, desempeña un papel estraté=
gico
en la formación de ciudadanos capaces de comprender las implicaciones
éticas, políticas y sociales de la tecnología, as&iacu=
te;
como, de participar activamente en la defensa de sus derechos en entornos
digitales.
De manera que, el análisis adquiere
particular relevancia en el contexto latinoamericano, donde las desigualdad=
es
históricas, las limitaciones en infraestructura tecnológica y=
las
brechas educativas condicionan tanto el acceso como los riesgos asociados al
uso de la IA. La región enfrenta el desafío de integrar
tecnologías emergentes sin reproducir lógicas de dependencia
tecnológica ni profundizar las asimetrías existentes entre
territorios y grupos sociales. Esto exige una mirada situada que reconozca =
las especificidades
culturales y socioeconómicas de los contextos locales, y que promueva
modelos de integración tecnológica orientados a la equidad, la
justicia social y el fortalecimiento comunitario.
Además de sugerir que la educació=
;n
debe ser resignificada como un espacio de diálogo crítico don=
de
se propicie una convergencia entre saberes ancestrales, conocimientos
científicos y reflexiones éticas sobre el impacto de la
tecnología en la vida humana. La inteligencia artificial no debe
concebirse como sustituto de la experiencia humana, sino como una herramien=
ta
que, bajo marcos éticos claros, puede contribuir al desarrollo humano
integral. Para ello, es necesario fortalecer políticas educativas que
prioricen el bienestar subjetivo, la salud mental, la equidad y la dignidad
humana, evitando que la tecnología se convierta en un mecanismo de
control o exclusión. Solo así será posible orientar el
desarrollo tecnológico hacia la ampliación de capacidades
individuales y colectivas, y hacia la construcción de sociedades
más justas, críticas y humanistas.
CONCLUSIÓN
Los hallazgos de la investigación permi=
ten
afirmar que la interrelación entre educación, pensamiento
crítico, inteligencia artificial generativa, bienestar subjetivo y
derechos humanos constituye un campo emergente cuya complejidad exige abord=
ajes
interdisciplinarios y marcos analíticos situados. Aunque estos domin=
ios
suelen tratarse de manera fragmentada, el análisis documental que
soporta el texto interpretativo desarrollado en la investigación,
evidencia que la expansión acelerada de la inteligencia artificial
está reconfigurando simultáneamente las prácticas
educativas, las dinámicas psicosociales y las condiciones estructura=
les
que posibilitan, o restringen, el ejercicio efectivo de los derechos humano=
s.
En el ámbito educativo, la
incorporación de tecnologías basadas en inteligencia artifici=
al
generativa está transformando los procesos de enseñanza,
evaluación y gestión institucional. No obstante, su integraci=
ón
no puede limitarse a criterios de eficiencia o innovación
tecnológica. Se requiere una pedagogía crítica que
interrogue los supuestos epistemológicos de estas herramientas, que
reconozca sus sesgos y limitaciones, preservando la centralidad del juicio
humano, la autonomía intelectual y la formación ética.=
La educación, en este sentido, se confi=
gura
como un espacio estratégico para desarrollar competencias metacognit=
ivas
que permitan a los estudiantes evaluar la información, contrastando
fuentes para comprender los impactos subjetivos y sociales de la
tecnología.
En relación con el bienestar subjetivo,=
los
resultados muestran que la interacción cotidiana con sistemas de IA
puede influir en la percepción de la realidad, en los procesos
motivacionales y en la salud mental. El uso excesivo, la gratificació=
;n
inmediata y la dependencia tecnológica emergen como factores de ries=
go
que requieren ser analizados desde perspectivas psicológicas y
socioculturales.
Esto implica reconocer que el bienestar subjet=
ivo
no es únicamente una experiencia individual, sino un fenómeno
condicionado por desigualdades estructurales, brechas digitales y
políticas públicas que determinan el acceso a recursos
educativos, tecnológicos y comunitarios.
Respecto a los derechos humanos, el estudio
evidencia tensiones significativas entre el potencial democratizador de la =
IA y
los riesgos asociados a la vigilancia masiva, la discriminación
algorítmica y la manipulación de la información. La
ausencia de marcos regulatorios robustos puede derivar en vulneraciones a la
intimidad, la libertad de expresión, la igualdad y el debido proceso.
Por ello, se sostiene la necesidad de avanzar hacia modelos de gobernanza
tecnológica basados en derechos humanos, que trascienden los princip=
ios
éticos declarativos y se anclan en obligaciones jurídicas vin=
culantes.
En conjunto, los resultados permiten concluir =
que
la educación debe asumir un rol protagónico en la
construcción de sociedades más críticas, inclusivas y
humanistas. Esto implica resignificar los espacios educativos como escenari=
os
de diálogo reflexivo donde la tecnología sea integrada de man=
era
consciente y equitativa, y donde el bienestar subjetivo y la defensa de los
derechos humanos se constituyan en ejes articuladores de las polític=
as
educativas contemporáneas. Solo así será posible orien=
tar
el desarrollo tecnológico hacia la justicia social, la dignidad huma=
na y
la ampliación de las capacidades individuales y colectivas.
REFERENCIAS
Aguilar, O. (2021). Vigilancia a través=
de
la inteligencia artificial y el big data: retos=
y
oportunidades para garantizar los derechos humanos. Revista Mexicana de
Ciencias Penales, 4(14), 71-86. https://doi.org/10.57042/rmcp.v4i14.435
Almache Barreiro, J. C. (2024). Inteligencia
Artificial y Derecho: Incidencia en los Derechos Humanos. (Tesis Doctoral. =
Universidad
de Córdoba) https://bit.ly/43ri5O0
Arbeláez Campillo, D., Villasmil Espino=
za,
J., & Rojas-Bahamón, M. (2021). Inteligencia artificial y
condición humana: ¿Entidades contrapuestas o fuerzas
complementarias? Revista de Ciencias Sociales, 27(2), 502-513. https://bit.ly/4oD18IH
Avendaño Porras, V. (2024). La
adicción a la Inteligencia Artificial: Evaluación de prevalen=
cia
y factores de riesgo en estudiantes de posgrado. Enfoques, 5(1), 66-88.
https://bit.ly/4ojWwXW
Cadena-Madrid, P., & Flores-Quinde, J. (20=
24).
La pedagogía y la inteligencia artificial, una perspectiva desde el
contexto de los docentes de la Unidad Educativa Nikola Tesla de Guayaquil.
Revista Científica Arbitrada de Investigación en
Comunicación, Marketing y Empresa REICOMUNICAR<=
/span>.
ISSN 2737-6354., 7(14), 175-192. https://bit.ly=
/3JvIh3h
Camacho, M., Horta, R., Silveira, L., y Silva,=
E.
(2024). Impacto de las dimensiones económicas en la felicidad de las
personas. Revista Venezolana de Gerencia, 29(105), 303-324.
https://doi.org/10.52080/rvgluz.29.105.20
Campana Ruiz, G. T., Lamas Vidalón,
V. M., Morales Andrade, A. J., & Pachas Romero, M. L. (2024). La IA y l=
a psicología:¿ Puede la tecnología
sustituir al profesional humano? https://bit.ly=
/42SX0fi
Díaz Pacheco, C., Conejeros Solar, M., =
Llanes
Ordóñez, J., & Sandín Esteban, M. (2024). Bienestar
subjetivo en las trayectorias de escolares inmigrantes en tres escuelas
chilenas. Psicoperspectivas, 23(3), 1-15.
https://doi.org/10.5027/psicoperspectivas-Vol23-Issue3-fulltext-3302
Flor Flores, A. (2024). La vulneración =
de
los derechos fundamentales a través de la inteligencia artificial. <=
span
class=3DSpellE>Sapientia & Iustitia,=
(11),
5-24. https://doi.org/10.35626/sapientia.11.6.113
Fondón-Ludeña, A. (2024).
Metacognición y pensamiento crítico en la sociedad de la
Inteligencia Artificial: del aula a la sociedad. European Public &
Social Innovation Review, 9, 1-19. https://doi.org/10.31637/epsir-2024-492
Gallent<=
/span>-Torres, C.,
Arenas, B., Vallespir, M. V., & Foltýnek, T. (2024). Inteligencia Artificial en
educación: entre riesgos y potencialidades. Praxis educativa, 19.
https://doi.org/10.5212/PraxEduc.v.19.23760.083=
Gutiérrez, M., & Amador, A. (2025).
Alfabetización digital y ética en el uso de la inteligencia
artificial generativa: Percepciones estudiantiles y desafíos
académicos en una universidad mexicana. Esperge=
sia,
12(1), 65-77. https://n9.cl/dn3o5
Lousada, F. (2024). Inteligencia artificial y
sesgos discriminatorios: ¿Es necesario un nuevo concepto de
discriminación algorítmica?.
https://doi.org/10.18042/cepc/IgdES.11.04
Ludwigs, K. (2018). El Analizador de la Felici=
dad:
una técnica novedosa para la medición del bienestar subjetivo.
Nuevas propuestas para estudiar ciencias sociales. https://n9.cl/nxj8pc
Martínez, L. (2024). Bienestar subjetiv=
o,
agenda pública y mejores políticas gubernamentales. Estudios
Gerenciales, 40(170), 94-104. https://doi.org/10.18046/j.estger.2024.170.6131
Medina González, H. (2024). ChatGPT y Copilot como
herramientas para promover el pensamiento crítico acerca de la
relación entre Desarrollo Humano y Educación. LATAM - Revista
Latinoamericana de Ciencias Sociales y Humanidades, 5 (3), 674 – 689.
https://doi.org/10.56712/latam.v5i3.2069
Medina González, H. (2025). Inteligencia
artificial y pensamiento crítico: Los retos de la educación p=
ara
el desarrollo humano. En Quirós, A. (Compilador), Propuestas educati=
vas
en la era de la IA. Regulación y uso ético. (pp. 441–45=
7).
Editorial Dykinson. https://n9.cl/50vjy
Menna, M. L., & Fernández, M. (2025). El impacto de la Inteligen=
cia Artificial
en la Salud Mental. (Tesis de maestría. Universidad de San
Andrés. Argentina). https://n9.cl/odn19
Molgaray, D. (2018). El análisis documen=
tal
como técnica de investigación en el siglo XXI. TONON, G. Nuevas propuestas para estudiar ciencias so=
ciales,
Buenos Aires: UP. https://n9.cl/yrpy0y
NotebookLM. (20 de enero de 2026). Infograf&iacut=
e;a
sobre La investigación teórica en educación:
Singularidades y tendencias (Romero Pérez, C. 2024). https://notebooklm.google/
NotebookLM. (23 de enero de 2026). Infograf&iacut=
e;a
sobre los resultados de la investigación: Educación
crítica e impacto de la inteligencia artificial en los derechos huma=
nos
y el bienestar subjetivo de las personas. https://note=
booklm.google/
Romero Pérez, C. (2024). La
investigación teórica en educación: singularidades y
tendencias. Revista Internacional de Teoría e Investigación
Educativa, 2, e96057. https://dx.doi.org/10.5209/rtie.95053
Rudas Murga, C. (2024). La inteligencia artificial=
y los
derechos humanos. Informática y Derecho: Revista Iberoamericana de
Derecho Informático (segunda época), (15), 123-135. https://<=
span
class=3DSpellE>n9.cl/qiuyz
Murillo Muñoz, J. (2024). El Bienestar
Subjetivo de Estudiantes Universitarios Explicado por Variables
Psicológicas y Sociodemográficas. Psykhe=
,
33(1). https://doi.org/10.7764/psykhe.2020.22557
Prince-Torres, Á. C. (2024). La
inteligencia artificial como mecanismo para el aseguramiento del derecho a =
la
educación. RECIE. Revista Caribeña de Investigación
Educativa, 8(1), 1-20. https://doi.org/10.32541/recie.=
2024.v8i1.pp1-20
Serrano, J. L., & Moreno-García, J.
(2024). Inteligencia artificial y personalización del aprendizaje:
¿Innovación educativa o promesas reciclad=
as?.
Edutec, Revista Electrónica de
Tecnología Educativa, (89), 1-17. https://doi.org/10.21556/edutec.2024.89.3577
García, J. O., López, S. M.,
Mellado, I., y Mañaccasa, M. S. (2025).
Bienestar subjetivo, aprendizaje colaborativo e inteligencia artificial en =
la
innovación de propuestas investigativas doctorales. Revista de Cienc=
ias
Sociales, XXXI(3), 461-471. https://n9.cl/dx58ci
Terán, M. J., Gaona, C. I. G., Alfes, Z.
D., & Chicaiza, G. L. G. (2024). El papel de la inteligencia artificial=
en
la promoción de la salud mental y el bienestar: una revisión
sistemática. Polo del Conocimiento, 9(12), 1997-2014. https://n9.cl/q4b9ng
Torronteras, R., Andaluz, L. y Sacaluga,
I. (2025). IA e Influencers: El uso de la inteligencia artificial para
perpetuar los estereotipos de género y la hipersexualización =
de
la mujer [AI and Influencers: The use of artificial intelligence to perpetuate gender
stereotypes and the=
hypersexualization of
Todo el contenido
de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades,
publicados en este sitio está disponibles bajo Licencia =
Creative Commons 
LATAM Revista Latinoamericana de Ciencias Sociales y
Humanidades, Asunción, Paraguay.
ISSN en línea:
2789-3855, febrero, 2026, Volumen VII, Número 1 p 1183.