Uso ético de herramientas de inteligencia artificial en  
estudiantes de internado de Medicina en un hospital público  
del Ecuador  
Ethical Use of Artificial Intelligence Tools Among Medical Internship  
Students in a Public Hospital in Ecuador  
Karen Lisseth Tandazo Chico  
Universidad Estatal de Milagro  
Guayaquil Ecuador  
Paulo Francisco Bonilla Acebo  
Universidad Estatal de Milagro  
Guayaquil Ecuador  
Graciela Josefina Castro Castillo  
Universidad Estatal de Milagro  
Milagro Ecuador  
Artículo recibido: 07 de noviembre de 2025. Aceptado para publicación: 14 de marzo de 2026.  
Conflictos de Interés: Ninguno que declarar.  
Resumen  
El estudio analizó el nivel de ética y responsabilidad académica en el uso de herramientas de  
inteligencia artificial por parte de estudiantes de Medicina durante el internado rotativo en un hospital  
público del Ecuador. Se aplicó un diseño cuantitativo, descriptivo y de corte transversal. La muestra  
estuvo conformada por 25 internos seleccionados mediante muestreo no probabilístico por  
conveniencia. Se utilizó un cuestionario estructurado con escala tipo Likert para evaluar la frecuencia  
de uso de la inteligencia artificial y los criterios éticos asociados a su empleo en el contexto clínico-  
formativo. El instrumento presentó una alta consistencia interna (α = 0.93). Los resultados indicaron  
que el 72% de los participantes consideró que la inteligencia artificial debe utilizarse como  
complemento y no como sustituto del razonamiento clínico, mientras que el 80% señaló la necesidad  
de verificar la información generada con fuentes científicas confiables. Asimismo, el 84% reconoció  
que un uso inadecuado podría afectar el desarrollo del razonamiento clínico y el 72% identificó  
posibles implicaciones en la seguridad del paciente. Se observaron respuestas neutrales y  
discrepantes que evidencian variabilidad en los criterios de responsabilidad académica. Los hallazgos  
permiten identificar tendencias en el uso ético de la inteligencia artificial durante el internado médico  
y aportan elementos para el diseño de lineamientos institucionales en educación médica.  
Palabras clave: inteligencia artificial, ética profesional, educación médica, formación clínica,  
responsabilidad académica  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3260.  
Abstract  
This study analyzed the level of ethical responsibility in the use of artificial intelligence tools among  
medical students during their clinical internship in a public hospital in Ecuador. A quantitative,  
descriptive, cross-sectional design was applied. The sample consisted of 25 interns selected through  
non-probabilistic convenience sampling. A structured Likert-scale questionnaire was used to assess  
the frequency of artificial intelligence use and the ethical criteria associated with its application in  
clinical training contexts. The instrument demonstrated high internal consistency (Cronbach’s α =  
0.93). Results indicated that 72% of participants considered artificial intelligence a complementary  
tool rather than a substitute for clinical reasoning, while 80% reported verifying AI-generated  
information using reliable scientific sources. Additionally, 84% acknowledged that inappropriate use  
could affect the development of clinical reasoning, and 72% identified potential implications for patient  
safety. Neutral and dissenting responses reflected variability in ethical responsibility criteria. The  
findings provide empirical evidence on ethical perceptions related to artificial intelligence use during  
clinical internship and contribute to discussions on institutional guidelines in medical education.  
Keywords: artificial intelligence, professional ethics, medical education, clinical training,  
academic responsibility  
Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades,  
publicado en este sitio está disponibles bajo Licencia Creative Commons.  
Cómo citar: Tandazo Chico, K. L., Bonilla Acebo, P. F., & Castro Castillo, G. J. (2026). Uso ético de  
herramientas de inteligencia artificial en estudiantes de internado de Medicina en un hospital público  
del Ecuador. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades 7 (1), 3260 3269.  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3261.  
INTRODUCCIÓN  
La inteligencia artificial (IA) ha experimentado un desarrollo acelerado en los últimos años, impactando  
significativamente los procesos educativos en la educación superior (UNESCO, 2019). En el campo de  
la Medicina, su uso se ha incrementado especialmente durante el internado rotativo, etapa formativa  
en la que el estudiante consolida competencias clínicas y pensamiento crítico. La adopción de  
tecnologías digitales se intensificó tras la pandemia de COVID-19, favoreciendo una mayor  
incorporación de recursos tecnológicos en la preparación académica y el análisis de casos clínicos  
(Zawacki et al., 2019).  
El internado médico constituye una fase crítica de la formación profesional, caracterizada por la  
integración entre teoría y práctica clínica. En este contexto, el aprendizaje no solo implica adquisición  
de conocimientos, sino también toma de decisiones que pueden incidir en la seguridad del paciente.  
Por ello, el uso de herramientas de IA exige criterios de responsabilidad académica, pensamiento  
crítico y compromiso ético.  
Diversos estudios advierten que, aunque la IA puede fortalecer el aprendizaje autónomo y facilitar el  
acceso a información actualizada, su uso no supervisado podría generar dependencia tecnológica y  
afectar el desarrollo del razonamiento clínico (Holmes & Tuomi, 2022). Desde una perspectiva  
institucional, la ausencia de lineamientos claros sobre ética digital médica puede incrementar el riesgo  
de prácticas inadecuadas.  
En este escenario surge un problema relevante: la falta de claridad sobre el nivel de ética y  
responsabilidad académica con el que los estudiantes de Medicina utilizan herramientas de  
inteligencia artificial durante el internado rotativo. Si bien se reconoce el uso creciente de estas  
tecnologías, existe un vacío investigativo respecto a los criterios éticos que orientan su aplicación en  
entornos clínicos formativos.  
En consecuencia, la presente investigación tiene como objetivo analizar el nivel de ética y  
responsabilidad académica en el uso de herramientas de inteligencia artificial por parte de estudiantes  
de Medicina durante el internado rotativo, evaluando sus percepciones y prácticas declaradas, con el  
fin de aportar evidencia empírica que contribuya al diseño de lineamientos institucionales para una  
integración ética y formativa de la IA en la educación médica.  
METODOLOGÍA  
La investigación se desarrolló bajo un enfoque cuantitativo, con alcance descriptivo y diseño de corte  
transversal, orientado a analizar el nivel de ética en el uso de herramientas de inteligencia artificial por  
parte de estudiantes de Medicina durante el internado rotativo. Este enfoque permitió examinar de  
manera objetiva la frecuencia de uso de dichas herramientas y los criterios éticos asociados a su  
utilización en el contexto clínico-formativo.  
La población estuvo conformada por estudiantes de Medicina que realizan el internado rotativo en el  
Hospital Guayaquil de Especialidades Abel Gilbert Pontón, en Ecuador, etapa académica posterior a la  
finalización del plan de estudios universitario y requisito previo para la obtención del título profesional.  
De un total accesible de internos, se seleccionó una muestra de 25 participantes, con edades  
comprendidas aproximadamente entre 23 y 25 años, quienes respondieron voluntariamente al  
instrumento. La selección se efectuó mediante un muestreo no probabilístico por conveniencia,  
considerando la accesibilidad al grupo académico del internado rotativo.  
Para la recolección de datos se diseñó un cuestionario estructurado con escala tipo Likert, orientado a  
evaluar tanto la frecuencia de uso de herramientas de inteligencia artificial como los criterios éticos y  
de responsabilidad académica vinculados a su aplicación durante el internado médico. El instrumento  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3262.  
fue sometido a un proceso de validación de contenido mediante juicio de expertos en educación  
médica y metodología de la investigación, quienes revisaron la pertinencia, claridad y coherencia de los  
ítems. Asimismo, se evaluó la consistencia interna de la escala mediante el coeficiente alfa de  
Cronbach, con el propósito de determinar su fiabilidad.  
El procedimiento de aplicación se realizó en formato digital a través de Google Forms. El enlace del  
cuestionario fue compartido en el grupo académico del internado por uno de los investigadores,  
integrante del cuerpo docente. Los participantes completaron el instrumento de manera voluntaria y  
anónima, sin intervención directa durante el proceso de respuesta. Se obtuvieron 25 cuestionarios  
completos, los cuales fueron considerados válidos para el análisis estadístico.  
Los datos recolectados fueron procesados mediante estadística descriptiva, calculando frecuencias,  
porcentajes, medias y desviaciones estándar para cada ítem, con el fin de identificar patrones  
generales en el uso ético de la inteligencia artificial por parte de los internos de Medicina. De igual  
forma, se calculó el coeficiente alfa de Cronbach correspondiente a los 16 ítems que conforman la  
escala (ítems 1227), a fin de evaluar la consistencia interna del instrumento.  
En cuanto a las consideraciones éticas, el estudio respetó los principios de voluntariedad, anonimato  
y confidencialidad. Previamente a la aplicación del cuestionario, los participantes fueron informados  
sobre los objetivos de la investigación y el uso exclusivamente académico de los datos. No se recolectó  
información personal identificable y las respuestas fueron tratadas de manera confidencial,  
garantizando el resguardo de la información proporcionada.  
DESARROLLO  
En los últimos cinco años, la educación médica ha experimentado una transformación acelerada  
impulsada por la digitalización y el desarrollo de sistemas basados en inteligencia artificial, lo que ha  
modificado la forma en que los estudiantes acceden a la información, estudian y construyen  
razonamiento clínico. La pandemia por COVID-19 fortaleció la adopción de entornos virtuales e  
híbridos; sin embargo, también evidenció limitaciones en las etapas clínicas, donde el aprendizaje  
depende del contacto con pacientes, la supervisión docente y la práctica deliberada (Manrique et al.,  
2021).  
La IA generativa se ha vuelto cada vez más accesible para los estudiantes de Medicina, incluidos  
aquellos que cursan el internado, etapa clave en la consolidación de competencias profesionales y  
éticas. Estas herramientas pueden apoyar tareas como la síntesis de información, la explicación de  
conceptos y la simulación de casos clínicos, contribuyendo al aprendizaje autónomo y a la  
personalización del estudio. No obstante, su uso también implica riesgos, entre ellos la generación de  
información inexacta, sesgos, plagio, dependencia cognitiva y posibles afectaciones al juicio clínico.  
En este sentido, se ha señalado que herramientas como ChatGPT pueden representar tanto  
oportunidades como desafíos formativos, dependiendo de los criterios pedagógicos y éticos que  
orienten su utilización (Vega et al., 2023). La integración responsable de la inteligencia artificial requiere  
transparencia, validación de fuentes y delimitación clara de su rol como herramienta complementaria  
del aprendizaje.  
La literatura reciente sobre ética e inteligencia artificial en educación destaca la importancia de  
aspectos como la privacidad, la integridad académica, los sesgos algorítmicos y la gobernanza  
institucional (Santana, 2025). En educación médica, estas dimensiones adquieren mayor relevancia  
durante el internado, donde el razonamiento clínico y la seguridad del paciente constituyen ejes  
centrales de la formación profesional.  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3263.  
Desde una perspectiva conceptual, el análisis del uso de inteligencia artificial en el internado médico  
puede enmarcarse en el enfoque de ética profesional aplicada, que sostiene que las decisiones  
formativas en contextos clínicos deben orientarse por principios de responsabilidad, autonomía y no  
maleficencia. El razonamiento clínico, entendido como un proceso cognitivo complejo que integra  
conocimiento científico, juicio crítico y toma de decisiones contextualizadas, no puede ser sustituido  
por sistemas automatizados, sino complementado de manera reflexiva y supervisada.  
Este marco conceptual permite comprender que el uso de herramientas de inteligencia artificial en el  
internado médico no constituye únicamente un fenómeno tecnológico, sino también ético y formativo,  
cuya integración requiere análisis crítico y regulación institucional  
La presente investigación se orienta por la siguiente pregunta: ¿Cuál es el nivel de ética en el uso de  
herramientas de inteligencia artificial en los procesos de estudio de los estudiantes de Medicina que  
realizan el internado, según sus percepciones y criterios de responsabilidad académica?  
Esta interrogante se aborda mediante la aplicación de encuestas a internos de Medicina, con el  
propósito de identificar prácticas responsables y prácticas de riesgo, como se evidencia en el estudio  
de Mayol (2023), y aportar evidencia empírica que contribuya al diseño de lineamientos institucionales  
para una integración ética y formativa de la inteligencia artificial en la educación médica.  
RESULTADOS  
En relación con el objetivo de analizar el nivel de ética en el uso de herramientas de inteligencia artificial  
durante el internado médico, los datos obtenidos mediante la aplicación del cuestionario fueron  
procesados mediante estadística descriptiva. El instrumento presentó una alta consistencia interna,  
obteniéndose un coeficiente alfa de Cronbach de α = 0.93, lo que indica excelente fiabilidad (Tabla 1).  
Tabla 1  
Consistencia interna del instrumento sobre uso ético de la inteligencia artificial (ítems 1227)  
Dimensión evaluada  
Número de ítems  
Alfa de Cronbach (α)  
Nivel de fiabilidad  
Escala total  
16  
0.93  
Excelente  
Nota: Valores de α ≥ 0.70 se consideran aceptables y α ≥ 0.90 indican excelente consistencia interna.  
Fuente: elaboración propia.  
Uso crítico de la inteligencia artificial y razonamiento clínico  
El 72% de los participantes manifestó estar de acuerdo o totalmente de acuerdo en que la inteligencia  
artificial debe utilizarse como complemento y no como sustituto del razonamiento clínico, mientras  
que el 16% adoptó una postura neutral y el 12% expresó desacuerdo.  
En relación con la verificación de la información generada por herramientas de IA con fuentes  
científicas confiables, el 80% indicó estar de acuerdo o totalmente de acuerdo, el 12% se mantuvo  
neutral y el 8% manifestó desacuerdo.  
Riesgos formativos y desarrollo del razonamiento clínico  
El 84% de los encuestados consideró que el uso inadecuado de la inteligencia artificial podría afectar  
el desarrollo del razonamiento clínico, mientras que el 12% manifestó desacuerdo y el 4% adoptó una  
postura neutral.  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3264.  
Asimismo, el 72% señaló que un uso no ético de la IA podría comprometer la seguridad del paciente, el  
20% se mantuvo neutral y el 8% expresó desacuerdo.  
Dimensión ética e integridad académica  
El 72% de los participantes consideró poco ético presentar como propio un contenido generado por  
inteligencia artificial sin citarlo. Un 12% adoptó una postura neutral y el 16% manifestó desacuerdo en  
distintos grados.  
Necesidad de regulación institucional  
El 68% de los estudiantes consideró necesaria la existencia de una normativa institucional que regule  
el uso de inteligencia artificial durante el internado médico, el 20% se mostró neutral y el 12% manifestó  
desacuerdo.  
La distribución porcentual detallada de los ítems evaluados se presenta en la Tabla 2.  
Tabla 2  
Distribución porcentual de los ítems clave sobre uso ético de la inteligencia artificial (n = 25)  
Ítem  
1 (%)  
2 (%)  
3 (%)  
16  
12  
12  
4
4 (%)  
24  
24  
24  
28  
5 (%)  
48  
56  
48  
56  
12. IA como complemento y no sustituto  
13. Verificación con fuentes científicas  
16. Poco ético presentar contenido IA sin citar  
17. Uso inadecuado afecta razonamiento clínico  
19. Uso no ético afecta seguridad del paciente  
21. Necesidad de normativa institucional  
8
4
8
4
4
8
4
4
8
8
4
4
20  
20  
36  
36  
36  
32  
Nota: Escala Likert: 1 = Totalmente en desacuerdo; 5 = Totalmente de acuerdo.  
Fuente: elaboración propia.  
En conjunto, los resultados evidencian una tendencia mayoritaria hacia el uso complementario de la  
inteligencia artificial durante el internado médico, junto con la presencia de respuestas neutrales y  
discrepantes en relación con los criterios de verificación y responsabilidad académica.  
DISCUSIÓN  
Los resultados obtenidos evidencian una percepción mayoritariamente favorable hacia el uso  
responsable de herramientas de inteligencia artificial durante el internado médico. La mayoría de los  
participantes manifestó utilizar la IA como complemento y no como sustituto del razonamiento clínico,  
así como verificar la información generada con fuentes científicas confiables. La alta consistencia  
interna del instrumento (α = 0.93) respalda la fiabilidad de los hallazgos y permite interpretar los  
resultados con solidez metodológica.  
Estos resultados se alinean con lo planteado por Vega et al. (2023), quienes sostienen que la  
integración de herramientas como ChatGPT en la educación médica puede representar una ventaja  
cuando se emplea como apoyo para el fortalecimiento del pensamiento crítico y no como reemplazo  
del juicio profesional. De manera similar, Holmes y Tuomi (2022) advierten que el valor formativo de la  
inteligencia artificial depende del marco pedagógico y ético que oriente su utilización. En este sentido,  
los hallazgos del presente estudio sugieren que, aunque existe una percepción favorable hacia el uso  
responsable de la IA durante el internado médico, su integración formativa requiere lineamientos  
institucionales claros que orienten su aplicación en contextos clínicos.  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3265.  
No obstante, la presencia de respuestas neutrales y de desacuerdo en ítems relacionados con  
verificación científica e implicaciones éticas indica que la práctica responsable del uso de IA no es  
homogénea entre los internos. Esta variabilidad podría reflejar diferencias en formación previa,  
supervisión docente o claridad institucional respecto a los criterios de uso académico. La ausencia de  
marcos regulatorios explícitos puede favorecer interpretaciones individuales, generando prácticas  
inconsistentes.  
En relación con los riesgos formativos, la mayoría de los participantes reconoció que el uso inadecuado  
de la inteligencia artificial podría afectar el desarrollo del razonamiento clínico y comprometer la  
seguridad del paciente. Este hallazgo resulta relevante, ya que evidencia una conciencia ética vinculada  
no solo al ámbito académico, sino también al impacto clínico del uso tecnológico. En concordancia, la  
World Medical Association (2025) enfatiza que la implementación de sistemas basados en IA en  
entornos médicos debe preservar la autonomía profesional y garantizar que las decisiones clínicas  
continúen siendo responsabilidad del profesional humano.  
Asimismo, el reconocimiento mayoritario de la necesidad de una normativa institucional refuerza lo  
señalado por la Organización para la Cooperación y el Desarrollo Económicos (OECD, 2025), que  
destaca la importancia de establecer marcos de gobernanza claros para la integración ética de la IA,  
particularmente en áreas sensibles como la salud. Desde una perspectiva conceptual, estos resultados  
respaldan el enfoque de ética profesional aplicada como marco pertinente para analizar la  
incorporación de tecnologías emergentes en contextos clínicos formativos, donde el juicio profesional  
y la responsabilidad ética constituyen pilares fundamentales.  
En términos generales, los resultados muestran que los estudiantes no adoptan una postura de rechazo  
frente a la inteligencia artificial, sino que reconocen tanto sus potenciales beneficios formativos como  
los riesgos éticos asociados a su uso inadecuado. Este equilibrio refleja una etapa de transición en la  
educación médica, caracterizada por la incorporación progresiva de herramientas tecnológicas que  
aún demandan acompañamiento pedagógico estructurado y regulación institucional específica.  
Desde una perspectiva teórica, estos hallazgos refuerzan la necesidad de integrar el enfoque de ética  
profesional aplicada en el análisis del uso de tecnologías emergentes en contextos clínicos,  
comprendiendo la inteligencia artificial no solo como herramienta tecnológica, sino como elemento  
formativo que incide directamente en la construcción del juicio profesional.  
El aporte original del estudio radica en proporcionar evidencia empírica contextualizada sobre el nivel  
de ética en el uso de inteligencia artificial durante el internado médico en un hospital público  
ecuatoriano, etapa clínica poco explorada en la literatura regional. Estos hallazgos permiten vincular el  
uso tecnológico con el razonamiento clínico y la seguridad del paciente, aportando elementos para el  
diseño de lineamientos institucionales orientados a una integración ética y formativa de la inteligencia  
artificial en la educación médica.  
El presente estudio presenta algunas limitaciones que deben considerarse al interpretar los resultados.  
El tamaño muestral reducido y el muestreo no probabilístico por conveniencia limitan la generalización  
de los hallazgos a otras poblaciones. Asimismo, al tratarse de un diseño descriptivo basado en  
percepciones autorreportadas, no se evalúan conductas observadas ni se establecen relaciones  
causales entre variables. Adicionalmente, el uso de un instrumento de autopercepción puede implicar  
la influencia de deseabilidad social en las respuestas. No obstante, la alta consistencia interna del  
instrumento (α = 0.93) respalda la fiabilidad de la escala aplicada.  
Se recomienda ampliar el estudio a muestras más extensas y a diferentes instituciones, con el fin de  
comparar percepciones  
y
prácticas en distintos contextos formativos. Asimismo, futuras  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3266.  
investigaciones podrían incorporar enfoques cualitativos que permitan profundizar en los dilemas  
éticos y experiencias formativas asociadas al uso de inteligencia artificial durante el internado médico.  
CONCLUSIÓN  
El estudio permitió analizar el nivel de ética en el uso de herramientas de inteligencia artificial durante  
el internado médico en un hospital público del Ecuador, evidenciando una tendencia mayoritaria hacia  
su utilización como recurso complementario del aprendizaje clínico y no como sustituto del  
razonamiento profesional.  
Se identificó una conciencia relevante respecto a la necesidad de validar la información generada por  
sistemas de IA con fuentes científicas confiables y de reconocer los riesgos asociados a su uso  
inadecuado, especialmente en relación con el desarrollo del razonamiento clínico y la seguridad del  
paciente. No obstante, la presencia de posturas neutrales y discrepantes indica que la práctica ética  
no es completamente homogénea entre los estudiantes.  
En conjunto, estos hallazgos refuerzan la importancia de fortalecer la formación en ética digital durante  
el internado médico y de establecer lineamientos institucionales claros que orienten el uso responsable  
de la inteligencia artificial en entornos clínicos. El estudio aporta evidencia empírica contextualizada  
que contribuye al debate sobre la integración formativa de la IA en la educación médica, destacando la  
necesidad de marcos éticos que acompañen su incorporación en la práctica profesional.  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3267.  
REFERENCIAS  
Alvarez, M. (2024). Inteligencia artificial como estrategia en la educación superior. Revista de  
Investigación  
en  
Tecnologías  
de  
la  
Información,  
12(26),  
108116.  
Campuzano, D. (2023). Guía metodológica para redacción y publicación de artículos científicos.  
Metodologica_para_Redaccion_y_Publicación_de_Artículos_Científicos_v12023  
Cisneros, A., Guevara, A., Urdánigo, J., & Garcés, J. (2022). Técnicas e instrumentos para la recolección  
de datos que apoyan a la investigación científica en tiempo de pandemia. Dominio de las Ciencias, 8(1),  
1165-1185.  
on%20las%20t%C3%A9cnicas%20empleadas%20para%20el,tres%3A%20T%C3%A9cnica%20Delphi%2  
C%20Grupo%20Nominal%20y%20la%20Encuesta.  
Cornejo, I., & Cippitani, R. (2023). Consideraciones éticas y jurídicas de la Inteligencia artificial en  
educación superior: desafíos y perspectivas. Revista de Educación y Derecho, 28(1), 1-23.  
Díez, M., & Palos, L. (2024). Inteligencia artificial y espíritu crítico en la enseñanza media: uso y  
percepción de los estudiantes de bachillerato sobre el chat GPT. Revista Internacional de  
Holmes, W., & Tuomi, I. (2022). State of the art and practice in AI in education. European Journal of  
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. (2019). Artificial  
intelligence in education: challenges and opportunities for sustainable development. UNESCO.  
Manrique, G., Motte, E., & Sánchez, M. G. (2021). Cambios y estrategias de la educación médica en  
respuesta a la pandemia por COVID-19. Investigación en Educación Médica, 10(39), 79-95.  
Mayol, J. (2023). Inteligencia artificial generativa y educación médica. Educación Médica, 24(4), 1-3.  
Miranda, S., & Ortiz, J. (2020). Los paradigmas de la investigación: un acercamiento teórico para  
reflexionar desde el campo de la investigación educativa. RIDE revista Iberoamericana para la  
Morán, N., Zavala, D., Intriago, A., Ávila, R., Guerrero, H., Tuárez, H., Pinargote, B., & Pilay, N. (2025).  
Metodología de la investigación científica: diseño de investigaciones cuantitativas. Editorial  
Organización para la Cooperación y el Desarrollo Económicos. (2025). Introducing the OECD AI  
Paranjape, K., Schinkel, M., Nannan, R., Car, J., & Nanayakkara, P. (2019). Introducing artificial  
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3268.  
Piñel, C. (2025). Integración tutelada de inteligencia artificial generativa en el trabajo de fin de grado:  
una experiencia formativa y ética en el grado de medicina. Revista Española de Educación Médica, 6(6),  
Ramírez, R., & Mollinedo, C. (2025). Escritura académica universitaria ante la irrupción de las  
tecnologías  
de  
inteligencia  
artificial.  
Revista  
Boliviana  
De  
Educación,  
7(14),  
5767.  
Santana, E. (2025). Ética e inteligencia artificial en educación: un análisis bibliométrico de tendencias  
emergentes desafíos. Ciencia Educación, 9(1), 95-111.  
y
y
Vega, J., Borja, E., & Ramírez, P. (2023). ChatGPT e inteligencia artificial: ¿obstáculo o ventaja para la  
educación médica superior? Educación Médica Superior, 37(2), 1-5.  
World Medical Association. (2025). WMA statement on artificial and augmented intelligence in medical  
intelligence-in-medical-care/  
Zawacki, O., Marín, V., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial  
intelligence applications in higher education where are the educators? Journal of Educational  
Todo el contenido de LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, publicados en este  
sitio está disponibles bajo Licencia Creative Commons  
.
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.  
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3269.