fue sometido a un proceso de validación de contenido mediante juicio de expertos en educación
médica y metodología de la investigación, quienes revisaron la pertinencia, claridad y coherencia de los
ítems. Asimismo, se evaluó la consistencia interna de la escala mediante el coeficiente alfa de
Cronbach, con el propósito de determinar su fiabilidad.
El procedimiento de aplicación se realizó en formato digital a través de Google Forms. El enlace del
cuestionario fue compartido en el grupo académico del internado por uno de los investigadores,
integrante del cuerpo docente. Los participantes completaron el instrumento de manera voluntaria y
anónima, sin intervención directa durante el proceso de respuesta. Se obtuvieron 25 cuestionarios
completos, los cuales fueron considerados válidos para el análisis estadístico.
Los datos recolectados fueron procesados mediante estadística descriptiva, calculando frecuencias,
porcentajes, medias y desviaciones estándar para cada ítem, con el fin de identificar patrones
generales en el uso ético de la inteligencia artificial por parte de los internos de Medicina. De igual
forma, se calculó el coeficiente alfa de Cronbach correspondiente a los 16 ítems que conforman la
escala (ítems 12–27), a fin de evaluar la consistencia interna del instrumento.
En cuanto a las consideraciones éticas, el estudio respetó los principios de voluntariedad, anonimato
y confidencialidad. Previamente a la aplicación del cuestionario, los participantes fueron informados
sobre los objetivos de la investigación y el uso exclusivamente académico de los datos. No se recolectó
información personal identificable y las respuestas fueron tratadas de manera confidencial,
garantizando el resguardo de la información proporcionada.
DESARROLLO
En los últimos cinco años, la educación médica ha experimentado una transformación acelerada
impulsada por la digitalización y el desarrollo de sistemas basados en inteligencia artificial, lo que ha
modificado la forma en que los estudiantes acceden a la información, estudian y construyen
razonamiento clínico. La pandemia por COVID-19 fortaleció la adopción de entornos virtuales e
híbridos; sin embargo, también evidenció limitaciones en las etapas clínicas, donde el aprendizaje
depende del contacto con pacientes, la supervisión docente y la práctica deliberada (Manrique et al.,
2021).
La IA generativa se ha vuelto cada vez más accesible para los estudiantes de Medicina, incluidos
aquellos que cursan el internado, etapa clave en la consolidación de competencias profesionales y
éticas. Estas herramientas pueden apoyar tareas como la síntesis de información, la explicación de
conceptos y la simulación de casos clínicos, contribuyendo al aprendizaje autónomo y a la
personalización del estudio. No obstante, su uso también implica riesgos, entre ellos la generación de
información inexacta, sesgos, plagio, dependencia cognitiva y posibles afectaciones al juicio clínico.
En este sentido, se ha señalado que herramientas como ChatGPT pueden representar tanto
oportunidades como desafíos formativos, dependiendo de los criterios pedagógicos y éticos que
orienten su utilización (Vega et al., 2023). La integración responsable de la inteligencia artificial requiere
transparencia, validación de fuentes y delimitación clara de su rol como herramienta complementaria
del aprendizaje.
La literatura reciente sobre ética e inteligencia artificial en educación destaca la importancia de
aspectos como la privacidad, la integridad académica, los sesgos algorítmicos y la gobernanza
institucional (Santana, 2025). En educación médica, estas dimensiones adquieren mayor relevancia
durante el internado, donde el razonamiento clínico y la seguridad del paciente constituyen ejes
centrales de la formación profesional.
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 3263.