La Inteligencia Artificial Generativa y los factores negativos de su uso en adolescentes
Generative Artificial Intelligence and the negative factors of its use in adolescents
DOI:
https://doi.org/10.56712/latam.v6i5.4829Palabras clave:
IAG, chatbot, falacia, desinformación, sesgoResumen
Este artículo indaga el cómo la Inteligencia Artificial Generativa (IAG) se ha convertido en la fuente principal de consulta para los adolescentes, lo que trae consecuencias negativas en su proceso educativo. Ya que, el uso desmesurado de la IAG conduce a la desinformación. Asimismo, el uso de la IA puede perpetuar cámaras de ecos en los adolescentes sobre su autopercepción e ideología. Además, se analiza cómo la IA, se ha convertido en la falacia de autoridad predilecta en la reproducción de “argumentos” sobre cualquier tema a debatir. Para evidenciar dichos tópicos este estudio se implementó en la Unidad Educativa Dr. Ricardo Cornejo en la ciudad de Quito. Esta es una investigación de campo, el enfoque es cuantitativo. El diseño de la investigación es no experimental. De alcance descriptivo. Los resultados han sido analizados por medio de encuestas. En cuanto a los resultados se demuestra que la IA es hoy en día la principal fuente de consulta a la que los jóvenes no cuestionan. Asimismo, la IA en los adolescentes valida sus ideas, aunque sean polémicas en cuanto a su ideología. Se concluye que se debe educar a los adolescentes en el uso responsable de la IA.
Descargas
Citas
Autrán, R. R. (2023). Sesgos y discriminaciones sociales de los algoritmos en Inteligencia Artificial: Una revisión documental. Entretextos, 15(39), 4.
Blanco, P. R (2020, 13 diciembre). Los bulos que la Wikipedia ha desmontado en 2020. El País. https://elpais.com/elpais/2020/12/12/hechos/1607781513_261053.html
Busquets, S. C., & Llorens, L. M. (2023). Autosupervisión de alucinaciones en grandes modelos del lenguaje: LLteaM. Journal of Computer-Assisted Linguistic Research, 7, 60-85.
Cárdenas Gracia, J. (2001). Los argumentos jurídicos y las falacias. GODÍNEZ MÉNDEZ, WENDY A. Y GARCÍA PEÑA, JOSÉ HERIBERTO (Coords.), Metodologías: Enseñanza e investigación jurídicaS, 40.
Corredera, J. C. (2023). Inteligencia artificial generativa. In Anales de la Real academia de Doctores (Vol. 8, No. 3, pp. 475-489).
Dantart, A. (2025). Inteligencia Artificial jurídica y el desafío de la veracidad: análisis de alucinaciones, optimización de RAG y principios para una integración responsable. arXiv e-prints, arXiv-2509.
Dunbar, M. (2025, mayo 21). Chicago Sun-Times confirms AI was used to create reading list of books that don’t exist. The guardian. https://www.theguardian.com/us-news/2025/may/20/chicago-sun-times-ai-summer-reading-list
DW. (2025, 9 julio). El chatbot Grok de la red X lanza comentarios antisemitas. dw.com. https://www.dw.com/es/el-chatbot-grok-de-la-red-x-lanza-comentarios-antisemitas-y-provoca-pol%C3%A9mica/a-73218627
Ferrante, E. (2021). Inteligencia artificial y sesgos algorítmicos¿ Por qué deberían importarnos?. Nueva sociedad, (294), 27-36.
Franganillo, Jorge; Lopezosa, Carlos; Salse, Marina (2023). La inteligencia artificial generativa en la docencia universitaria. Barcelona: Universitat de Barcelona. http://hdl.handle.net/2445/202932
Guallar, Javier; Codina, Lluís, Freixa, Pere; Pérez-Montoro, Mario. (2020 Desinformación, bulos, curación y verificación. Revisión de estudios en iberoamérica 2017-2020. Telos: revista de Estudios Interdisciplinarios en Ciencias Sociales, 22 (3), Venezuela. (Pp.595-613). www.doi.org/10.36390/telos223.09
Guevara Enríquez, G., & Herrera Espinoza, A. (2025). El uso de Inteligencia Artificial en la educación: The use of Artificial Intelligence in education. LATAM Revista Latinoamericana De Ciencias Sociales Y Humanidades, 6(2), 2220 – 2233. https://doi.org/10.56712/latam.v6i2.3763
Herrera Castrillo, C. J. (2024). Paradigma Positivista. Boletín Científico De Las Ciencias Económico Administrativas Del ICEA, 12(24), 29–32. https://doi.org/10.29057/icea.v12i24.12660
Juca-Maldonado, F. (2023). El impacto de la inteligencia artificial en los trabajos académicos y de investigación. Revista metropolitana de Ciencias aplicadas, 6(Suplemento 1), 289-296.
Lombana-Bermúdez, A., Mejía, M. V., Céspedes, L. M. G., & Uribe, J. F. P. (2022). Cámaras de eco, desinformación y campañas de desprestigio en Colombia. Un estudio de Twitter y las elecciones locales de Medellín en 2019. Política y gobierno, 29(1).
Matas, A. (2018). Diseño del formato de escalas tipo Likert: un estado de la cuestión. Revista electrónica de investigación educativa, 20(1), 38-47.
Meta AI. (2024). Meta Llama 3.1: The most capable openly available LLM to date. Meta AI Blog. https://ai.meta.com/blog/meta-llama-3-1/
Morcillo, N. (2025, febrero 18). Sentencias falsas, leyes extranjeras y filtrado de datos: los riesgos de usar ChatGPT se cuelan en los despachos de abogados. Ediciones EL PAÍS S.L. https://elpais.com/economia/2025-02-18/sentencias-falsas-leyes-extranjeras-y-filtrado-de-datos-los-riesgos-de-usar-chatgpt-se-cuelan-en-los-despachos-de-abogados.html
Oñate Mercado, R. J., Beltrán Torres, C. P., Domínguez Beleño, M. A., & Ortiz Cuadro, S. O. C. (2025). LA LÓGICA EN EL CRISOL DE LA COTIDIANIDAD: UN ANÁLISIS DE LAS FALACIAS EN LA FAMILIA. REVISTA ADELANTE-AHEAD, 13(1), Pag 1–5. https://ojs.unicolombo.edu.co/index.php/adelante-ahead/article/view/255
Pasquinelli, Matteo (2022). Cómo una máquina aprende y falla. Una gramática del error para la Inteligencia Artificial (Traducción de Emilio Cafassi, Carolina Monti, Hernán Peckaitis y Graciana Zarauza), Revista Hipertextos, 10(17), pp. 13-29. https://doi.org/10.24215/23143924e054
Poveda, J. F. S., & Saltos, G. D. C. (2024). Algoritmos en redes sociales y estrategias comunicacionales para el posicionamiento de medios tradicionales: Algorithms in social media and communication strategies for the positioning of traditional media. LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, 5(6), 1670-1686.
Quesada, A. W. (2025, 25 abril). Citas falsas y respuestas “confiadamente incorrectas”: los chatbots son incapaces de atribuir las informaciones. El País. https://elpais.com/proyecto-tendencias/2025-04-25/citas-falsas-y-respuestas-confiadamente-incorrectas-los-chatbots-son-incapaces-de-atribuir-las-informaciones.html
Redacción. (2023, 15 mayo). Qué es la «alucinación» de la inteligencia artificial y por qué es una de las fallas potencialmente más peligrosas de esta tecnología. BBC News Mundo. https://www.bbc.com/mundo/noticias-65606089
Rodríguez Antonio, R. (2022). ¿Es Wikipedia una fuente de información confiable? La multitud responde. RIEE | Revista Internacional De Estudios En Educación, 22(1), 61-69. https://doi.org/10.37354/riee.2022.221
Rouhiainen, L. (2018). Inteligencia artificial. Madrid: Alienta Editorial, 20-21.
Tucker, P. (2024, 4 enero). How often does ChatGPT push misinformation? Defense One. https://www.defenseone.com/technology/2024/01/new-paper-shows-generative-ai-its-present-formcan-push-misinformation/393128/
Yousif, N. (2025, 27 agosto). Los padres de un adolescente que se quitó la vida demandan a OpenAI, creadora de ChatGPT. BBC News Mundo. https://www.bbc.com/mundo/articles/c30z5lyjzygo
Publicado
Cómo citar
Número
Sección
Licencia
Derechos de autor 2025 David Efraín Salto Doisela, Darío Paúl Chanaluisa Toaquiza, Erika Gabriela Toapanta Yugsi, Nelly Yolanda Catota Tigse , Edwin Marcelo Espin Tama

Esta obra está bajo una licencia internacional Creative Commons Atribución 4.0.













