04 de diciembre de 2025
Suscribirse


04 de diciembre de 2025
Suscribirse

Penal


Martínez Quintero Mendoza González Laguado & De La Rosa

Las conversaciones de ChatGPT en los procedimientos judiciales

16 de agosto de 2025

Alejandro Nieto Hernández

Asociado de Litigios, Daños y Seguros
Martínez Quintero Mendoza González Laguado & De La Rosa
Canal de noticias de Asuntos Legales

Piense en un caso hipotético: una persona celebró un contrato de compraventa con el único fin de defraudar a otra persona. Pretendió celebrar una venta, cuando en realidad quería celebrar una donación, transfiriendo un inmueble a una de sus hijas. Antes de hacerlo, preguntó a ChatGPT los riegos que eso podría conllevar. Preguntó, por ejemplo, “¿un juez podría darse cuenta de que transferí una casa a mi hija para que el banco no me pudiera embargar?” o “¿qué impuestos debo pagar en Colombia si le transfiero a mi hija una propiedad por debajo de su valor real?”.

Imagínese otro caso: una persona que utiliza ChatGPT como terapeuta, es decir, le pregunta a la inteligencia artificial sobre su salud mental, un día le hace la siguiente pregunta “¿debería sentirme mal por obligar a mi esposa a firmar ese testamento, cuando claramente lo que estaba ahí escrito no era lo que ella quería?”.

En el auge de la era de la inteligencia artificial, las personas utilizan herramientas como ChatGPT, Gemini o Gork —las más populares—, para hacer preguntas cotidianas; revelan datos personales sensibles, rasgos de la personalidad, hasta algunos se leen el tarot (sí, ChatGPT puede hacer eso) y preguntan por hechos relacionados con la vida amorosa, la fertilidad, la salud, o incluso confiesan haber cometido actos defraudatorios como los de los ejemplos usados. Con herramientas tan versátiles que pueden al mismo tiempo traducir documentos, corregir ortografía, servir como buscadores web, dar consejos jurídicos o dar terapia sicológica, es difícil establecer el margen de confidencialidad entre el ser humano que pregunta a la herramienta, y el servicio que provee las respuestas.

Business Insider reportó el pasado 25 de julio de 2025 un titular alarmante: Sam Altman says your ChatGPT therapy session might not stay private in a lawsuit (lo que en castellano se traduce como “Sam Altman dice que tu sesión de terapia con ChatGPT podría no mantenerse privada en un juicio”). El CEO de OpenAI señaló que las conversaciones de “terapia” sostenidas por las personas con la inteligencia artificial podrían no estar cubiertas por el secreto profesional. Conclusión que es alarmante, si se considera que existen personas que confían en esas herramientas para revelar sus secretos más íntimos, para buscar apoyo en momentos difíciles, o como asesor jurídico gratuito con cierta precisión en algunas laborales jurídicas sencillas: la redacción de cartas, la resolución de preguntas normativas, la elaboración de derechos de petición o de acuerdos.

En Colombia, el secreto profesional está regulado en una gran variedad de normas jurídicas. Amparado en el principio de confidencialidad de las comunicaciones del artículo 15 de la Constitución Política, se señala el deber irrestricto de guardar secreto para los sicólogos en la Ley 1090 de 2006, así como para los abogados en el artículo 28 de la Ley 1123 de 2007. El Código Penal y de Procedimiento Penal también establece claros deberes en ese sentido, y exime a los profesionales a declarar en contra de acusados cuando conocieron información en virtud de dicho secreto.

No obstante, los deberes de guardar secreto, y las garantías para no revelar información sensible parecen ser subjetivos: los profesionales específicos (médicos, abogados, sicólogos) deben guardar secreto y no están obligados a revelar información. No la inteligencia artificial, que no es un profesional, y que consiste principalmente en un chat que una persona humana sostiene con una máquina.

Esa forma de comunicación no está cubierta por el secreto profesional en Colombia y puede equipararse a una comunicación telefónica, a un chat en una red social, o al mismísimo correo electrónico de una persona. En los litigios civiles es usual que los abogados soliciten exhibiciones de documentos de contenido electromagnético, como correos electrónicos, con la presencia de peritos informáticos, así como es cada vez más frecuente que se aporten a los procesos conversaciones de WhatsApp.

Así, en principio, nada obsta para solicitar copia de los chats sostenidos por una persona con una inteligencia artificial, señalando que esas conversaciones son mensajes de datos alojados en un servidor, como lo son los correos electrónicos del empleado de una compañía. Tampoco es imposible que un juez ordene a Open AI, Google, o a X remitir informes con esas conversaciones que en nuestro ordenamiento jurídico no están cubiertas como conversaciones amparadas por el secreto profesional. Esto es, aunque suene atractivo para los litigantes, que tendrán más medios de prueba a su disposición, preocupante desde el punto de vista ético.

Una persona que ha sido obligada a remitir a un despacho judicial sus conversaciones con ChatGPT deberá estar preparada, si ha usado la herramienta de esa manera, no solo a asumir las consecuencias relacionadas con el tema del litigio, sino también a asumir que asuntos cotidianos —y privados— como una pregunta sobre su relación amorosa, o sobre su salud, también pueda ser vista por terceros ajenos a su vida personal: jueces, abogados y auxiliares de la justicia. Esta clase de problemáticas y de retos que impone la era de la inteligencia artificial, parecen ser solo un abrebocas para lo que realmente representa un desafío para nuestro derecho contemporáneo.

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA