información clara, y completa sobre todo el ciclo del sistema, lo que permitiría de una forma ágil a las
autoridades encargadas hacer auditorias y a los usuarios conocer los sistemas.
En cuanto a la robustez y seguridad del sistema, observamos que el modelo de estándares basados en
riesgos es coherente con estándares internacionales. Sin embargo, teniendo en cuenta que la
definición de robustez indicada en el proyecto señala la capacidad de la IA de funcionar de manera
segura y confiable aún en condiciones adversas o imprevistas. Consideramos necesario, que la
regulación establezca la obligatoriedad de los desarrolladores y administradores de IA, de generar
pruebas adversariales, y crear mecanismos de reporte de reporte inmediato de incidentes.
Adicionalmente, teniendo en cuenta que muchos de estos sistemas vienen siendo utilizados para
trámites, donde están nuestros datos personales, o historiales clínicos, consideramos necesario que
la regulación establezca unos estándares mínimos de ciberseguridad para la IA.
Estableciendo lo anterior, a continuación, se propone, una alternativa de regulación con algunas
mejores que se consideran pertinentes según lo expuesto:
Primero, teniendo en cuenta que este es un tema relativamente nuevo, que apenas se esta entrando a
regular, y sobre el cual se tiene un grado de incertidumbre frente a su funcionamiento, proponemos
que, en la regulación, se establezca una cláusula de revisión legislativa, donde se indique que cada
cierto periodo se utilice la información recogida sobre el impacto de la IA en distintos sectores como
el social o económico, para decidir si la regulación debe regular o desregular en algún sentido.
Segundo, aunque en temas de gobernanza la propuesta esta es amplia, y busca colaboración
intersectorial en pro de mejorar y fortalecer el sistema, consideramos adecuado, que se cree un
sistema nacional de auditoría independiente, que haga seguimiento técnico adecuado al algoritmo, al
uso de este, y al respeto a los derechos y dignidad humano que se puedan ver vulnerados con ese uso
del algoritmo.
Tercero, en lo casos que el sistema IA, generen efectos jurídicos individuales, como con la asignación
de programas o subsidios, entre otros, debe incorporarse un derecho reforzado a la explicación y
revisión humana, incluyendo un procedimiento administrativo especial, en caso de que los efectos
generados por la IA sean contrarios a derecho o a los derechos de las personas. Debe recordarse, que
en este tipo de IA que produce efectos jurídicos, es el sistema con la información que posee la que
termina por definir la situación, por lo que puede existir riesgo de sesgo de la información.
Cuarto, para mejorar la robustez del sistema y la transparencia de este, se debe establecer la obligación
de reportar los incidentes algorítmicos graves ante la autoridad que sea competente, y generar
estándares claros y mínimos de ciberseguridad.
Quinto, la para alinearse con los principios de la OCDE, la regulación debe volverse un modelo operativo
verificables, que permita hacer revisión de este, para verificar el impacto basado en evidencia, y poder
tomar decisiones futuras en materia de regulación.
Sexto, para el caso de Colombia, es adecuado que exista una ley marco que establezca principios,
derechos, deberes y limitaciones generales, pero la creación de modelos a través de la utilización de
figuras como los Sandbox regulatorios, permitiría una análisis y control más profundo, ágil, adaptativo
y verificable sobre determinados temas, con coordinación continua de las autoridades competentes,
lo que nos llevaría a cumplir estándares internacionales en materia de regulación como los señalados
por la OCDE.
Séptimo, la regulación de la inteligencia artificial en Colombia no puede limitarse a la expedición de
leyes que corren el riesgo de quedar obsoletas rápidamente, pues los tramites legislativos en Colombia
LATAM Revista Latinoamericana de Ciencias Sociales y Humanidades, Asunción, Paraguay.
ISSN en línea: 2789-3855, marzo, 2026, Volumen VII, Número 1 p 2797.