13 de marzo de 2026
Suscribirse


13 de marzo de 2026
Suscribirse
OPINIÓN

Gobernanza de la Inteligencia Artificial en Colombia: hacia un modelo de responsabilidad proactiva y seguridad jurídica

04 de marzo de 2026

Roberto García

Profesor de la Facultad de Estudios Jurídicos Políticos e Internacionales de la Universidad de La Sabana
Canal de noticias de Asuntos Legales

En materia de regulación de la Inteligencia Artificial la región transita por una fase de propuestas legislativas emergentes y esfuerzos de cooperación para evitar la fragmentación normativa. En este contexto persiste una marcada periferización regulatoria donde los Estados del Sur Global actúan predominantemente como consumidores de tecnologías y marcos normativos diseñados en el exterior, con una capacidad normativa limitada para influir en su diseño ético o técnico. América Latina atraviesa una transición crítica desde el soft law, un modelo basado en guías éticas y principios generales hacia marcos de hard law, basado en imposiciones y regulaciones vinculantes. Mientras países como Brasil avanzan en un proyecto de ley inspirado en el modelo europeo de gestión de riesgos y responsabilidad civil, otros países como Chile y Perú han formalizado su compromiso a través de protecciones de vanguardia (como los neuroderechos) y leyes de fomento al desarrollo nacional. Colombia, ejemplifica un modelo orientado al mercado. Este modelo privilegia instrumentos de soft law y marcos éticos aspiracionales —como los documentos CONPES 4144 de 2023 o el Marco Ético para la IA— que carecen de fuerza vinculante para garantizar derechos fundamentales, y en su lugar promueven la autorregulación privada bajo la premisa de una intervención estatal mínima.

La región avanza en la incorporación de tecnologías digitales sin haber desarrollado marcos normativos sólidos ni sistemas robustos de supervisión técnica (CENIA, 2025). En este contexto, el principal desafío radica en la asimetría estructural entre la velocidad de adopción tecnológica y la consolidación de capacidades institucionales, donde el reto consiste en evolucionar hacia un modelo de gobernanza socio-técnica que transforme las recomendaciones éticas en garantías procesales exigibles.

Aunque es cierto que la Corte Constitucional ha asumido el rol de arquitecto de la gobernanza algorítmica, resolviendo tensiones mediante sentencias sobre transparencia, debido proceso y límites a la sustitución del juicio humano mediante la IA (como en las sentencias T-323 de 2024 y T-067 de 2025), persiste el reto de alinear el desarrollo tecnológico con procesos de gestión y certificación (como la norma ISO/IEC 42001) que permitan a las empresas demostrar transparencia y gestión de riesgos.

La tendencia actual apunta hacia la adopción de estándares técnicos globales para mitigar riesgos de discriminación y opacidad algorítmica. En el ámbito empresarial, la auditoría y certificación de sistemas de inteligencia artificial comienza necesariamente con un conjunto de normas técnicas internacionales que constituyen la base jurídica y metodológica para evaluar la gestión responsable de estas tecnologías. Entre ellas destaca la ISO/IEC 42001:2023, el primer estándar global diseñado específicamente para sistemas de gestión de inteligencia artificial (Artificial Intelligence Management Systems, AIMS), que establece los requisitos para que una organización pueda demostrar que desarrolla y utiliza IA bajo principios de gobernanza, control y responsabilidad. A esta norma se suman estándares complementarios como ISO/IEC 23894:2023, que proporciona directrices técnicas para la gestión de riesgos asociados a sistemas de IA, incluyendo la identificación, evaluación y mitigación de riesgos algorítmicos. Asimismo, la serie ISO/IEC 5259, dedicada a la calidad de los datos para analítica y aprendizaje automático, aborda uno de los aspectos más críticos de los sistemas de inteligencia artificial: la fiabilidad, trazabilidad y calidad de los datos utilizados para entrenar modelos. En conjunto, estas normas constituyen la base técnica sobre la cual deberán estructurarse las auditorías de sistemas algorítmicos en el sector privado, estableciendo criterios verificables para la gestión organizacional, la evaluación de riesgos y el control de la calidad de los datos.

A partir de estos estándares, la gobernanza empresarial de la inteligencia artificial se apoya también en marcos de trabajo que orientan la implementación práctica de estos principios en las organizaciones. Aunque los más influyentes se encuentra el NIST AI Risk Management Framework (AI RMF 1.0/1.1) desarrollado por el National Institute of Standards and Technology de Estados Unidos o el COBIT Focus Area: Artificial Intelligence (ISACA, 2024). Estos instrumentos se complementan con una creciente literatura académica que analiza los desafíos de supervisión y certificación de estas tecnologías. La experiencia comparada internacional señala que mientras que normas como ISO/IEC 42001 establecen la arquitectura organizacional para gestionar sistemas de inteligencia artificial —incluyendo políticas, controles, documentación y procesos de mejora continua—, urgen la aplicación de metodologías que permitan examinar cómo esos sistemas funcionan en contextos reales y faciliten la operacionalización y fortalecimiento de la aplicación práctica de estos estándares y marcos regulatorios.

La norma ISO/IEC 42001:2023 introduce un Sistema de Gestión de Inteligencia Artificial (SGIA). Este estándar técnico propone una arquitectura de control que exige políticas de gobernanza interna, evaluaciones de impacto algorítmico y procesos de mejora continua y trazabilidad de datos. El cumplimiento meramente formal (checklist compliance) es insuficiente frente a la complejidad de la IA, toda vez que no se trata tan solo de cumplir con requisitos técnicos, sino de evaluar la confiabilidad de sistemas de inteligencia artificial, identificar los riesgos éticos, técnicos y sociales presentes en la utilización de los sistemas de IA en sus contextos de aplicación reales. Esto exige el análisis de escenarios socio-técnicos bajo principios de IA confiable, identificar tensiones éticas y riesgos potenciales en el funcionamiento de sistemas de IA. Este proceso requiere además el fortalecimiento de espacios interdisciplinarios de investigación aplicada capaces de evaluar sistemas de IA en contextos socio-técnicos reales y apoyar la implementación de estándares internacionales.

Por ello, el desafío no radica en la rapidez en qué adoptemos estos estándares sino en el grado de madurez de nuestras empresas y organizaciones en transitar hacia estos modelos de gobernanza algorítmica. Urge por tanto avanzar en aplicación de metodologías robustas, como la certificación de Z-Inspection® ofrecido únicamente en Colombia por la fundación Tech4Peace (tech4peace.co), y que permitan la identificación temprana de riesgos éticos y jurídicos, documentar de manera exhaustiva el ciclo de vida del sistema (desde el diseño hasta el despliegue) que posibiliten a nuestras empresas y organizaciones llegar adecuadamente preparadas al momento de adopción obligatoria de estos estándares de IA confiables como la norma ISO/IEC 42001:2023.

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA