La falta de regulación de la inteligencia artificial, en EE. UU., continúa generando grandes inquietudes y ha llevado a que las empresas líderes en este sector hayan tomado la iniciativa de autorregularse.
Así, Google, Amazon, Microsoft, Meta y OpenAI, decidieron suscribir un acuerdo de autorregulación, con la Casa Blanca, a través del cual estas compañías se comprometieron a permitir que expertos independientes analicen y pongan a prueba los avances y desarrollos de estas plataformas, antes de que se coloquen a disposición de los usuarios.
Una de las grandes preocupaciones del gobierno de ese país, es la imposibilidad de distinguir los textos o imágenes generados por la AI de los que producen los humanos, razón por la cual las empresas asumieron el cometido de resolver este problema y desarrollar mecanismos tendientes a identificar, con claridad, aquellas creaciones que sean el resultado de la AI.
OpenAI lanzó al mercado, en enero de este año, un detector propio para discernir si un texto fue escrito por una IA o un humano, aunque sus resultados aún son bastante inexactos.
La idea de la autorregulación surgió a raíz de las enormes trabas políticas que ha afrontado el proyecto de ley, mediante la cual se crea La Comisión Federal de Plataformas Digitales, que han llevado a que su trámite avance de manera muy lenta en el congreso de los EE. UU.
El proyecto pretende además regular la IA y supervisar las redes sociales, los motores de búsqueda y otras plataformas en línea.
Sin embargo, el tema de la autorregulación no ha sido nada pacífico.
En ese sentido Caitriona Fitzgerald, subdirectora del Electronic Privacy Information Center, manifestó que los compromisos voluntarios no son suficientes cuando se trata de proteger los derechos civiles de las personas, en el campo de la AI, toda vez que estas garantías no pueden quedar simplemente al arbitrio y voluntad de las compañías.
En su parecer, se precisa que la ley imponga verdaderas obligaciones que el estado pueda exigir coactivamente.
A diferencia de lo que ocurre en Estados Unidos y Europa, en Latinoamérica no se ha percibido ninguna urgencia por regular esta materia. Sólo en Colombia y Brasil se han presentado proyectos de ley sobre el particular.
Aunque pudiera pensarse que, en principio, en nuestra región no tiene sentido expedir reglamentos o normas que regulen la producción de las IA, en la medida en que esa tecnología se desarrolla por fuera de nuestras jurisdicciones, sin embargo, ello no excluye la necesidad de regular su uso, especialmente, por parte de los operadores judiciales y las entidades administrativas, aunque que sin limitarse a ellas.
En Colombia, por ejemplo, el 1 de agosto de 2023, se presentó nuevamente ante el Congreso de la República el proyecto de ley "por medio del cual se establecen los lineamientos de política pública para el desarrollo, uso e implementación de Inteligencia Artificial y se dictan otras disposiciones" que busca crear la Comisión de Tratamiento de Datos y Desarrollos con Inteligencia Artificial, cuyas funciones serán emitir los reglamentos técnicos para el uso de IAs y avalar las solicitudes de implementación de estas tecnologías en las diferentes entidades del estado.
Mientras el trámite de este proyecto sigue su curso en el congreso, se están implementando IAs como Pretoria en la Corte Constitucional, que sistematizó la escogencia de tutelas para su revisión, o como Prisma que ayuda a los fiscales a determinar el cumplimiento de los requisitos para la implementación de medidas de aseguramiento.
De otra parte, es importante que el sector privado, vaya acometiendo las acciones necesarias para adoptar unos protocolos tendientes a establecer las reglas de juego necesarias para el uso adecuado de esta tecnología. Ello ayudará a disminuir las contingencias y los riesgos que implica su uso incontrolado y descuidado.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp