10 de abril de 2026
Suscribirse


10 de abril de 2026
Suscribirse
OPINIÓN

Propiedad Intelectual e Inteligencia Artificial: debates alrededor de la destilación de información

10 de abril de 2026

Pedro J. Londoño

Asociado Propiedad Intelectual de Baker McKenzie
Canal de noticias de Asuntos Legales

Hace una semanas Anthropic, la gigante detrás de Claude, denunció que compañías chinas desarrolladoras de modelos de IA habrían emprendido ataques contra su IA, Claude, con el fin de destilar datos para entrenar sus propios modelos. Según Anthropic, el ataque de estas compañías chinas (principalmente DeppSeek, Moonshot AI y MiniMax) consistió en adelantar millones de interacciones con Claude a través cuentas falsas, para así replicar capacidades de Claude a menor costo. Anthropic presentó esto como una amenaza a la seguridad y a la integridad de sus datasets y su propio know-how alrededor de Claude. La controversia surgió además en un momento de suma relevancia, donde las acciones de Anthropic subían de manera exponencial, y Claude se posicionaba a nivel mundial como el modelo de IA de moda.

Esta tensión entre las compañías chinas y la gigante norteamericana revivió el debate alrededor del entrenamiento de los modelos de lenguaje (LLMs), y generó varios cuestionamientos a Anthropic por la información utilizada para entrenar su modelo Claude. En 2025, Anthropic había llegado a un acuerdo de conciliación con un colectivo de autores norteamericanos que habían iniciado una acción de grupo en su contra, por presuntamente haber usado millones de libros adquiridos de fuentes ilegítimas en el entrenamiento de sus modelos de IA generativa. La decisión judicial que llevó a Anthropic a conciliar en 2025 había sido clara: entrenar LLMs con obras legalmente adquiridas puede ser fair use y ser una excepción a la protección del derecho de autor, pero entrenar los LLMs con copias piratas, o adquiridas por fuentes ilícitas, no se enmarca dentro de las excepciones al derecho de autor del fair use.

Con el escándalo de la “destilación de datos” de la que Anthropic habría sido víctima, se revivió entonces un debate que se había considerado zanjado (al menos en algunos estados de Estados Unidos), y se abre nuevamente los interrogantes alrededor de la propiedad intelectual y la IA. La destilación de datos, o “model extraction” como se le ha conocido en algunos entornos, lleva el debate a otro nivel, pues levanta interrogantes sobre qué tipo de protección tienen las empresas desarrolladoras de modelos de IA sobre las funcionalidades de sus modelos, y si la PI como tradicionalmente se concibe otorga suficientes herramientas de protección a estas compañías tecnológicas.

Ante la falta de respuestas claras, y la existencia de riesgos inminentes de destilación de datos, resulta fundamental para las compañías desarrolladoras de modelos de IA implementar medios preventivos de protección: protocolos internos de manejo de información sensible y secretos empresariales, acuerdos de uso claros, contratos robustos, compartimentalización de la información y monitoreo técnico.

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA