06 de diciembre de 2024
Suscribirse


06 de diciembre de 2024
Suscribirse
OPINIÓN

La IA y el secreto profesional

20 de mayo de 2024

Gabriel Ibarra Pardo

Socio de Ibarra Rimon
Canal de noticias de Asuntos Legales

Entre los riesgos que representa la IA en la práctica legal, el relativo a la confidencialidad o el secreto profesional, merece especial atención.

El peligro radica en que, de manera desprevenida los abogados pueden subir, a estas plataformas, documentos o datos sensibles de los clientes, estrategias de litigio, hechos específicos de un caso u otra información amparada por el secreto profesional.

Ese de amplio conocimiento que aplicaciones como ChatGPT o Gemini entre otras, se caracterizan por utilizar la información que le proporcionan los usuarios (input) para entrenarse y perfeccionar sus respuestas (output).

Sobre el particular, en su reporte del año 2023 sobre la justicia federal, el presidente de la Corte Suprema de los Estados Unidos, John Roberts, manifestó su preocupación sobre este tema.

Según Steve Delchin, abogado de la firma Squire Patton & Boggs, el riesgo radica, entre otras cosas, en que la información proporcionada a la IA pueda ser accesible para los abogados de la parte contraria.

Lo anterior no solo representa una amenaza para la reserva de la información confidencial y el secreto profesional, sino que también el abogado que proporciona la información, a la aplicación, podría incurrir en una falta disciplinaria.

Un reciente informe del grupo de trabajo, de la Barra de Nueva York, sobre el impacto de esta tecnología en la profesión jurídica, resaltó que los profesionales del derecho tienen el deber de informarse sobre el funcionamiento de las herramientas de IA que emplean en sus labores, especialmente acerca de sus políticas de datos, términos y condiciones de uso, manejo de la información ingresada, y la manera cómo será utilizada, almacenada y procesada la información con las que las alimentan.

La guía subraya la necesidad abstenerse de suministrar datos sensibles a estos sistemas, salvo que se hayan adoptado medidas de seguridad básicas, como la revisión de políticas de privacidad, la obtención del consentimiento explícito del cliente y nunca olvidarse de obtener el soporte técnico adecuado, es decir, asesorarse de un abogado experto en estas materias o de un miembro del equipo de informática de la firma, que pueda brindar consejo acerca de cuáles usos de la IA son apropiados y cuáles no.

También señala que los abogados deben buscar sistemas que ofrezcan transparencia en sus algoritmos y en los procesos de toma de decisiones.

De hecho, Copilot, la aplicación IA de Microsoft advierte con claridad cómo será tratada la información que se le suministra, de la siguiente manera: “Tus indicaciones (inputs) y las respuestas de Copilot (outputs o resultados): NO están disponibles para otros clientes”.

Además, abogados como Christopher Campbell y Antonious Sadek, de DLA Piper, recomiendan la construcción de sistemas de IA propios que permitan contar con un mayor control de la información, toda vez que esta alternativa por cuanto ello hace posible que la información se procese en una plataforma propia y no pública.

Es de prever que a medida que los abogados se familiaricen con esta herramienta, los riesgos asociados a su implementación se irán reduciendo.

Así, al comprender mejor sus limitaciones y vulnerabilidades, los profesionales del derecho estarán mejor equipados para tomar las medidas necesarias para mitigarlos.

Se puede concluir entonces que el riesgo más significativo que representa la inteligencia artificial, para el ejercicio del derecho, radica en su uso desprevenido y ligero. En este sentido, es prudente que las firmas de abogados estudien y tengan en cuenta las recomendaciones de la Barra de Nueva York, que bien pueden servir de punto de partida para elaborar un protocolo sobre la materia.

*Gabriel Ibarra Pardo, Socio de Ibarra Rimón

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA