Agregue a sus temas de interés

Agregue a sus temas de interés Cerrar

viernes, 30 de agosto de 2019

Mucho se habla por estos días sobre el rápido avance de las tecnologías, los mercados digitales disruptivos, los alcances del “Big Data” y de lo que en general es conocido como la revolución digital. Autoridades de competencia en el mundo han sido contundentes en afirmar que se deben aplicar las normas de competencia a estas realidades y han hecho un esfuerzo por lograrlo. El Departamento de Justicia de Estados Unidos, por ejemplo, ha afirmado que no tolerará conductas anticompetitivas independientemente de si estas ocurren en un salón lleno de humo o a través de Internet y de sofisticados algoritmos.

La pregunta que cabe hacerse es si realmente sí se pueden aplicar los regímenes de competencia clásicos (”consumer welfare standard”) de manera indiferente a los acuerdos de precios acordados entre personas y a aquellos que se derivan de máquinas inteligentes que, a través de autoaprendizaje (”self-learning”), pueden desarrollar de manera autónoma ambientes de alta transparencia en los precios del mercado que podrían eventualmente dar lugar a una colusión tácita.

En este punto es preciso aclarar que el problema no se da frente a los casos en los que una empresa utiliza o crea las máquinas inteligentes para deliberadamente acordar precios con la competencia. Es evidente que en este caso se trataría de un cartel común y que lo que varía es el medio a través del cual se llega a la fijación de precios. El problema realmente surge en el escenario en el que se crea una máquina para una finalidad lícita distinta a la de acordar precios pero que aumenta los riesgos de generar un ambiente de paralelismo por las dinámicas que se producen en esos mercados cuando más de una empresa competidora utiliza mecanismos de inteligencia artificial para maximizar su negocio y generar eficiencias a través de la inteligencia artificial.

El reconocido profesor Ariel Ezrachi en su artículo sobre “Inteligencia Artificial y Colusión” se cuestiona acerca de si en un escenario de autoaprendizaje por parte de máquinas inteligentes podría la ley atribuir responsabilidad a compañías. Según Ezrachi, en estos casos se debe analizar a qué nivel deberían responder las personas y, además, es preciso delimitar si quien responde es, por ejemplo, el diseñador de la máquina o su operador y hasta dónde llega su responsabilidad. Acá es relevante considerar qué tan posible era prever o predeterminar alguna acción ilegal al momento de su creación y qué tan posible es para los operadores detectar los riesgos de colusión.

Dado que la tecnología puede imitar el comportamiento humano y puede desarrollar incluso su propia capacidad de aprender con base en variados y complejísimos factores, ¿hasta qué punto la responsabilidad debe ser imputada a quien diseña para fines lícitos o a quien opera legítimamente? ¿Qué ocurre si además son las mismas máquinas inteligentes las que permiten obtener información más precisa, precios más transparentes, maximizar las ganancias y tomar mejores decisiones en favor de consumidores en menor tiempo?

Los retos y las dudas que surgen de este tema son infinitos. Lo que es un hecho es que las nuevas realidades exigen replantear también el régimen jurídico. En los escenarios de colusión tácita generados por la inteligencia artificial se deben distinguir las diferentes etapas de creación e implementación de los mismos para determinar, de manera ajustada a la realidad, la responsabilidad en un contexto de prácticas restrictivas de la competencia. Bajo estas circunstancias, aventurarse a conclusiones basadas en disposiciones diseñadas para esquemas antiguos parecería ser un error.