Principios para gobernar la Inteligencia General Artificial (AGI): Mitigar los riesgos y garantizar el desarrollo responsable

Principles for governing Artificial General Intelligence (AGI): Mitigating risks and ensuring responsible development

Autores/as

DOI:

https://doi.org/10.56712/latam.v6i5.4811

Palabras clave:

inteligencia artificial, gobernanza, ética, riesgo

Resumen

El rápido desarrollo de modelos fundacionales y su creciente autonomía demandan una gobernanza capaz de anticipar y mitigar los riesgos de una posible Inteligencia Artificial General (AGI). Este estudio propone un marco de principios e indicadores de gobernanza para alinear el desarrollo de sistemas avanzados con valores sociales y marcos internacionales. La metodología combina tres enfoques: (i) revisión sistemática de literatura para identificar brechas y buenas prácticas en gobernanza de IA; (ii) triangulación normativa de principios y controles de marcos internacionales, como los de la OCDE; y (iii) síntesis empírica de métricas de evaluación aplicadas a modelos fundacionales. Los resultados ofrecen un marco basado en siete principios:  transparencia, responsabilidad, beneficencia/no maleficencia, equidad, control humano significativo, robustez/seguridad y colaboración multiactor. Asimismo, se proponen indicadores verificables –como trazabilidad de decisiones, cobertura de pruebas, degradación bajo estrés, monitoreo post-despliegue, y adopción de estándares-- que fortalecen la rendición de cuentas y reducen el resigo residual. La evidencia comparada muestra que los procesos de evaluación continua y reportes de transparencia mejoran la detectabilidad de fallos y la seguridad del sistema. Finalmente, el modelo ofrece una base metodológica para reguladores y organizaciones mapeen riesgos técnicos y organizacionales con obligaciones de auditoría y gestión. En conjunto, el marco propuesto facilita la transición de los principios a la práctica, promoviendo una gobernanza medible, trazable y efectiva para el desarrollo seguro y alineado de la IA avanzada.

Descargas

Los datos de descargas todavía no están disponibles.

Biografía del autor/a

Pablo Corona Fraga, Centro de Investigación e Innovación en Tecnologías de la Información y la Comunicación INFOTEC

Vanessa Díaz, Oficial de Investigación Jurídica de la Suprema Corte de Justicia de la Nación

Citas

Abhishek, A., Erickson, L., & Bandopadhyay, T. (2025). BEATS: Bias Evaluation and Assessment Test Suite for Large Language Models. arXiv. doi.org/10.48550/arXiv.2503.24310

AILAB. (2023). Propuestas de regulación y recomendaciones de inteligencia artificial en el mundo: Síntesis de principales aspectos. Propuestas de regulación y recomendaciones de inteligencia artificial en el mundo: Síntesis de principales aspectos. Retrieved from ttps://ialab.com.ar/wp-content/uploads/2023/08/Propuestas-de-regulacion-y-recomendaciones-de-IA-en-el-mundo-1.pdf

Batool, A., Zowghi, D., & Bano, M. (2024). Responsible AI Governance: A systematic literature review. arXiv. doi.org/10.48550/arXiv.2401.10896

Baum, S. D. (2020). Medium-Term Artificial Intelligence and Society. Information, 11, 290. doi:10.3390/info11060290

Blackman, R. (2022). Ethical Machines: Your Concise Guide to Totally Unbiased, Transparent, and Respectful AI. In Amazon. Harvard Business Review Press.

Burton, S., Habli, I., Lawton, T., McDermid, J., Morgan, P., & Porter, Z. (2020). Mind the gaps: Assuring the safety of autonomous systems from an engineering, ethical, and legal perspective. Artificial Intelligence, 279, 103201. doi:10.1016/j.artint.2019.103201

Casares, A. P. (2018). The brain of the future and the viability of democratic governance: The role of artificial intelligence, cognitive machines, and viable systems. Futures, 103, 5–16. doi:10.1016/j.futures.2018.05.002

Chmielinski, K., Newman, S., Kranzinger, C. N., Hind, M., Vaughan, J. W., Mitchell, M., Stoyanovich, J., McMillan-Major, A., McReynolds, E., & Esfahany, K. (2024). The CLeAR Documentation Framework for AI Transparency: Recommendations for Practitioners & Context for Policymakers [Discussion paper]. Harvard Kennedy School, Shorenstein Center. https://shorensteincenter.org/clear-documentation-framework-ai-transparency-recommendations-practitioners-context-policymakers/

Dobbe, R., Gilbert, T. K., & Mintz, Y. (2021). Hard choices in artificial intelligence. Artificial Intelligence, 300, 103555. doi:10.1016/j.artint.2021.103555

Faroldi, C. (2024), Artificial general intelligence and the EU AI Act: A regulatory mismatch?, AI & Society

Friederich, S. (2023). Symbiosis, not alignment, as the goal for liberal democracies in the transition to artificial general intelligence. AI and Ethics. doi:10.1007/s43681-023-00268-7

Greenstein, S. (2021). Preserving the rule of law in the era of artificial intelligence (AI). Artificial Intelligence and Law, 30, 291–323. doi:10.1007/s10506-021-09294-4

Gunasekara, L. (2025). A systematic review of responsible artificial intelligence. MDPI. doi.org/10.3390/asi8040097

Hohma, E. (2023). The need and elements of trusted development of AI. MDPI. doi.org/10.3390/ai4040046

Karnouskos, S. (2021). Symbiosis with artificial intelligence via the prism of law, robots, and society. Artificial Intelligence and Law, 30, 93–115. doi:10.1007/s10506-021-09289-1

Kilian, K. A., Ventura, C. J., & Bailey, M. M. (2023). Examining the differential risk from high-level artificial intelligence and the question of control. Futures, 151, 103182. doi:10.1016/j.futures.2023.103182

Kuehnert, B., Kim, R. M., Forlizzi, J., & Heidari, H. (2025). The “Who”, “What”, and “How” of Responsible AI Governance: A systematic review and meta-analysis of (actor, stage)-specific tools. arXiv. doi.org/10.48550/arXiv.2502.13294

Kurzweil, R. (2005). The singularity is near: When humans transcend biology. Viking / Penguin.

Liu, H.-Y., & Maas, M. M. (2021). `Solving for X?' Towards a problem-finding framework to ground long-term governance strategies for artificial intelligence. Futures, 126, 102672. doi:10.1016/j.futures.2020.102672

Llamas Covarrubias, J. Z. (2022). Enfoques regulatorios para la Inteligencia Artificial (IA). Revista Chilena De Derecho, 49(3), 31–62. doi.org/10.7764/R.493.2

Maher, R., & Buhmann, K. (2019). Meaningful stakeholder engagement: Bottom-up initiatives within global governance frameworks. Geoforum, 107, 231–234. doi:10.1016/j.geoforum.2019.06.013

McLean, S., Read, G. J., Thompson, J., Baber, C., Stanton, N. A., & Salmon, P. M. (2021). The risks associated with Artificial General Intelligence: A systematic review. Journal of Experimental, Theoretical Artificial Intelligence, 35, 649–663. doi:10.1080/0952813x.2021.1964003

Pratt, L., Bisson, C., & Warin, T. (2023). Bringing advanced technology to strategic decision-making: The Decision Intelligence/Data Science (DI/DS) Integration framework. Futures, 152, 103217. doi:10.1016/j.futures.2023.103217

Ribeiro, D., Rocha, T., Pinto, G., Cartaxo, B., Amaral, M., Davila, N., & Camargo, A. (2025). Toward Effective AI Governance: A review of principles. arXiv. doi.org/10.48550/arXiv.2505.23417

Salmon, P. M., Baber, C., Burns, C., Carden, T., Cooke, N., Cummings, M., . . . Stanton, N. A. (2023). Managing the risks of artificial general intelligence: A human factors and ergonomics perspective. Human Factors and Ergonomics in Manufacturing, Service Industries, 33, 366–378. doi:10.1002/hfm.20996

Saman Ghaffarian, F. R. (2023). Explainable artificial intelligence in disaster risk management: Achievements and prospective futures. International Journal of Disaster Risk Reduction, 104123. doi.org/10.1016/j.ijdrr.2023.104123

Skouloudis, A., el al. (2025). Scratching the surface of responsible AI in financial systems. MDPI. doi.org/10.3390/ai6080169

Stahl, B. C., Antoniou, J., Bhalla, N., Brooks, L., Jansen, P., Lindqvist, B., Wright, D. (2023). A systematic review of artificial intelligence impact assessments. Artificial Intelligence Review. doi:10.1007/s10462-023-10420-8

Vicente, K. (1999). Cognitive work analysis: Toward safe, productive, and healthy computer-based work. Lawrence Erlbaum Associates.

Walker, G., Stanton, N., & Salmon, P. (2015). Human factors inautomotive engineering and technology. Ashgate.

Witt, A., Huggins, A., Governatori, G., & Buckley, J. (2023). Encoding legislation: a methodology for enhancing technical validation, legal alignment and interdisciplinarity. Artificial Intelligence and Law. doi:10.1007/s10506-023-09350-1

World Economic Forum. (2023,). Towards a strong trust-based AI governance model. Towards a strong trust-based AI governance model. Retrieved from https://www.weforum.org/agenda/2023/05/towards-a-strong-trust-based-ai-governance-model/

Descargas

Publicado

2025-11-14

Cómo citar

Corona Fraga, P., & Díaz, V. (2025). Principios para gobernar la Inteligencia General Artificial (AGI): Mitigar los riesgos y garantizar el desarrollo responsable: Principles for governing Artificial General Intelligence (AGI): Mitigating risks and ensuring responsible development . LATAM Revista Latinoamericana De Ciencias Sociales Y Humanidades, 6(5), 3249 – 3268. https://doi.org/10.56712/latam.v6i5.4811

Número

Sección

Humanidades