Agregue a sus temas de interés

Agregue a sus temas de interés Cerrar

lunes, 20 de septiembre de 2021

El vocablo bot es la versión recortada de la palabra robot y hace usualmente referencia a un programa de computador que está diseñado para realizar automáticamente labores repetitivas, con un propósito predefinido. Su finalidad principal es sustituir al humano y superarlo en eficiencia o en capacidad de producción. Los bots se pueden usar para múltiples propósitos, como por ejemplo para catalogar información, reproducirla o asociarla, todo a grandes velocidades.

Los chatbots se usan para generar conversaciones con el usuario de un servicio, sin necesidad de la intervención humana, lo cual amplía las posibilidades de atención al cliente y genera nuevas maneras para resolver consultas o quejas. El problema viene cuando se aplican los bots a fines maliciosos, como cuando se usan para rastrear sin permiso información ajena o para tomar el control de aplicaciones de terceras personas y provocar daños, que muchas veces son sistemáticos.

La pregunta es si el régimen jurídico actual está preparado para sancionar eficazmente el uso malicioso de los bots. En muchos casos la violación de la privacidad o los actos de difamación o engaño son resultado de la aplicación automática de un proceso algorítmico del cual el dueño del bot no tenía conocimiento específico. Y como a los bots no se les puede hacer responsables de delitos, la pregunta obvia es si siempre y de forma automática es posible imponer responsabilidad a sus dueños o sus creadores por los “actos” u “omisiones” ocasionados por dichos bots, o si se hace necesario probar el dolo o la negligencia de su propietario ¿Serían aplicables las reglas clásicas de responsabilidad civil por el hecho de “un tercero”?

En el campo de la protección de datos y la libertad de información, el asunto más retador -sin duda- está en la proliferación de noticias falsas. Si se mira individualmente un caso aislado de publicación de una noticia falsa, se podría pensar que las normas tradicionales que protegen a las víctimas de difamación o de perturbación de sus derechos fundamentales, son suficientes. Sin embargo, cuando se analiza el asunto desde su dimensión automatizada, donde en minutos se logra difundir una noticia falsa entre cientos de miles o, incluso, millones de usuarios, la respuesta del derecho es claramente insuficiente.

La mente humana es más vulnerable al engaño cuando la acción engañosa involucra a muchas personas de un mismo entorno por el efecto de validación colectiva, pues el sólo hecho de que otras muchas personas hayan percibido como eventualmente verdadera una información, aumenta la probabilidad de que el grupo de receptores del mensaje se convenza de la validez de su contenido. Si leo una sola vez que Juan es corrupto y nadie más me lo reitera o lo comenta, es menos probable que yo lo de por hecho. Si la noticia me llega por varios canales, en varios momentos y es referida por mis amigos o conocidos, es más probable que termine convencido de su veracidad. En últimas y, como es obvio, el daño a la libertad de información y al derecho de recibir información veraz se ve mayormente afectado cuando hay bots de por medio, no sólo porque se impacta un mayor número de personas, sino porque se aumenta la probabilidad de caer en el engaño.

No se ha inventado hasta ahora un remedio eficaz contra la proliferación de las noticias falsas y los esfuerzos de muchos países y organizaciones que se han limitado hasta ahora a generar conciencia en los usuarios y ciertos hábitos de cautela para detectarlas. De ahí a que tengamos una respuesta eficaz del derecho frente a las noticias falsas y las demás malas prácticas basadas en el uso de bots, hay mucho trecho. Los países tendrán que organizarse para atacar el cibercrimen internacional de forma más eficaz.