En mi artículo anterior (“Los 13 errores más frecuentes al redactar un contrato”) afirmé que un documento exitoso no es el más extenso, sino el que realmente funciona cuando se pone a prueba. Sin embargo, debo hacer una fe de erratas: pasé por alto un error 14 tan frecuente como costoso—no considerar con rigor las implicaciones cambiarias de los pagos.
La reciente sentencia SC3294-2024 de la Corte Suprema de Justicia (3 de marzo, M.P. Octavio A. Tejeiro) lo dejó claro al revisar un caso de endeudamiento que aplica a cualquier tipo de contrato: el incumplimiento del régimen cambiario puede acarrear la nulidad absoluta del negocio por objeto ilícito. En otras palabras, un simple descuido frente a normas imperativas puede anular por completo una operación, sin importar cuántas firmas, cláusulas o garantías la respalden.
Esa decisión refuerza una idea que inquieta y entusiasma por igual: la tecnología ha llegado para transformar el derecho contractual—plantillas inteligentes, firmas electrónicas, inteligencia artificial que sugiere cláusulas en segundos—pero ninguna plataforma salvará a un contrato que ignore los fundamentos legales. El verdadero reto ya no es solo evitar errores de redacción, sino saber usar la tecnología sin perder el control normativo y estratégico del contenido. Porque la misma herramienta que acelera un cierre puede multiplicar los riesgos si se confunde automatización con criterio jurídico.
¿Para qué sirve entonces la inteligencia artificial en la práctica contractual? Para mucho, incluso para casi todo. Hoy sería inconcebible que un documento relevante no pase por un filtro automatizado que detecte inconsistencias, referencias cruzadas mal construidas o contradicciones internas. Desde hace años, las firmas de abogados usan IA para procesos de debida diligencia, y cada vez más para revisar y construir contratos.
Pero, como ocurre en un avión comercial, donde el piloto automático puede controlar el 90 % del vuelo, sigue siendo indispensable una tripulación entrenada, con criterio, capaz de tomar el mando cuando algo se sale del guion. Con la IA sucede exactamente lo mismo. Puede sugerir, comparar, incluso anticipar, pero no reemplaza la experiencia del abogado ni su juicio. Es una herramienta poderosa, sí, pero sigue siendo solo eso: una herramienta. Tal vez aprenda a razonar, y sin duda mejorará. Pero hoy no entiende las dinámicas de poder entre las partes, los efectos económicos de un negocio mal cerrado, ni prevé las consecuencias regulatorias de una cláusula mal diseñada.
Y ahí está el verdadero riesgo. No en que la IA se equivoque—porque hay probabilidades de que lo haga, y de hecho lo hace, incluso en formas sofisticadas que algunos llaman “alucinaciones”—, sino en que dejemos de estar al mando. En que asumamos que el contrato se redacta solo, que las advertencias se detectan solas, y que el juicio jurídico puede delegarse a un algoritmo. Que el piloto mire la cabina sin intervenir, convencido de que el avión se aterriza solo.
El problema no está solo en el uso tardío o superficial de la tecnología, sino también en el exceso de regulación en momentos tempranos. Una carta de intención o un memorando de entendimiento con enfoque excesivamente jurídico—cargado de condiciones legales, advertencias y referencias normativas prematuras—puede enfriar el apetito del inversionista o del vendedor y entorpecer la dinámica comercial. A veces, un exceso de “derecho” en el momento equivocado termina matando negocios que apenas estaban despegando. Y la IA, por sofisticada que sea, no distingue cuándo conviene dejar ciertos temas abiertos para mantener viva la negociación. No interpreta el momento, ni el pulso del negocio.
Un contrato de prestación de servicios con una entidad extranjera que no contemple correctamente la forma de ingreso de divisas puede volverse inejecutable. Un acuerdo de inversión que omita la revelación de beneficiarios finales o que establezca condiciones de salida contrarias a la regulación aplicable puede ser bloqueado o anulado. Y ningún modelo predictivo advertirá que una cláusula, aunque jurídicamente sólida, desbalancea por completo la relación entre las partes. Un abogado que delega sin supervisar deja de ser abogado para convertirse en operador pasivo de tecnología.
Tampoco podemos olvidar que muchas de estas plataformas de IA, especialmente las comerciales, implican la transferencia o tratamiento de datos en entornos no siempre seguros o confidenciales. Es imperativo que abogados y empresas sean conscientes de los riesgos asociados al uso de información sensible en estas herramientas, y que adopten políticas claras de protección y uso responsable de datos.
Por eso, el uso de estas herramientas debe ser consciente, vigilado y estructurado. Los abogados no solo debemos aprender a dar instrucciones precisas, redactar prompts con criterio y revisar resultados con atención, sino también entrenarnos en el uso responsable de estas tecnologías. Trabajar con inteligencia artificial exige una comprensión técnica mínima, pero sobre todo un compromiso ético con la calidad, la confidencialidad y la finalidad del trabajo jurídico. La IA sin duda redefinirá la forma en que ejercemos el derecho y transformará también la manera en que lo enseñamos. Pero no redefinirá el derecho en sí. Esa sigue siendo nuestra responsabilidad.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp