Agregue a sus temas de interés

Agregue a sus temas de interés Cerrar

lunes, 29 de abril de 2024

La incursión de la inteligencia artificial (IA) en la administración de justicia ha traído escenarios inéditos, desafíos y debates sin precedentes. Entre los puntos más álgidos se encuentran la equidad en los procesos, el papel de la IA en la toma de decisiones del juez y el derecho a ser juzgado por un ser humano, en lugar de una máquina.

En los diversos países los jueces ya han comenzado a valerse de esta tecnología, algunas veces de manera apropiada, en otras no tanto.

Ejemplo de lo primero fue cuando el juez británico Colin Birss recurrió a la IA para obtener un resumen de un área del derecho que no dominaba. Después de verificar su confiabilidad, utilizó la información obtenida como base para su decisión.

En contraste, en Colombia, el uso de esta tecnología, por parte de los despachos judiciales, parece no haber sido tan afortunado. Es el caso de un fallo proferido por la Sala Penal del Tribunal Superior de Pereira, en un proceso en el que se le endilgó al acusado un homicidio culposo.

*Gabriel Ibarra Pardo, Socio de Ibarra Rimón.

La defensa alegó que la muerte del peatón obedeció a su imprudencia, pues se le encontró etanol en la sangre (20 mg/100 ml).

El Tribunal rechazó los anteriores argumentos y condenó al acusado porque consideró que la cantidad de licor que había ingerido la víctima no era suficiente para afectar sus capacidades motrices y cognitivas.

El Magistrado Ponente tomó su decisión con base en una respuesta de ChatGPT, al que le preguntó: “¿La presencia en sangre 20 miligramos sobre 100 mililitros de etanol a cuantas copas de vino, de aguardiente, de ron o de cerveza equivalen?”. La respuesta fue que equivalía a 1 copa.

Mientras algunos juristas aplaudieron el uso de la tecnología en esta decisión, otros lo cuestionaron de manera severa.

Resulta evidente que las respuestas de ChatGPT no puede equipararse a una prueba pericial. Además, esta aplicación suele omitir las fuentes de la información que suministra, no es confiable y de mayor gravedad, es que, con frecuencia, proporciona información errónea.

Un ejemplo de lo anterior se registró en Brasil, donde un juez basó su sentencia en una jurisprudencia inexistente proporcionada por esta tecnología, según lo reportó el diario RT International.

Otro tema que genera debate es el “Derecho a una Decisión Humana “: si los ciudadanos o las partes involucradas en un proceso tienen derecho a que sus solicitudes y litigios sean decididos por humanos.

De acuerdo con Aziz Huq, profesor de la Universidad de Chicago, la tendencia de los algoritmos a cometer errores, la dificultad que tienen para reconocer las circunstancias particulares de cada caso y su incapacidad para emitir un juicio ético o moral justifican la necesidad de mantener la intervención humana en la toma de decisiones judiciales.

Ante lo anterior, resulta evidente la conveniencia de establecer pautas y guías claras para el uso adecuado de la IA en la administración de justicia. En este sentido, cabe destacar las recomendaciones del Poder Judicial del Reino Unido, a sus jueces, que ofrecen un valioso marco de referencia para garantizar un uso responsable y ético de esta tecnología.

Esas guías señalan, entre otras cosas, que la IA puede utilizarse en la elaboración de resúmenes de grandes volúmenes de textos, la redacción de correspondencia, la solicitud de recomendaciones para mejorar la redacción de sentencias, la paráfrasis del contenido de documentos de las partes y la detección de errores ortográficos.

Sin embargo, el documento también advierte enfáticamente que la IA no debe emplearse para tareas de investigación jurídica, análisis o razonamiento legal.

Estas Pautas deberían adoptarse como referentes en las diferentes jurisdicciones, con el fin de encaminar el uso adecuado de esta herramienta por parte de los operadores judiciales.