24 de julio de 2024
Suscribirse


24 de julio de 2024
Suscribirse
OPINIÓN

IA: innovación vs regulación responsable

15 de mayo de 2023

Gabriel Ibarra Pardo

Socio de Ibarra Rimon
Canal de noticias de Asuntos Legales

Los chatbots, como ChatGPT y Bard de Google, tan populares en estos días, son apenas una muestra de los diversos tipos de inteligencia artificial (IA) que han aparecido de manera vertiginosa en el estado del arte.

Lo cierto, es que cada día surgen nuevas modalidades de este fenómeno, y ejemplo de ello son las grabaciones de la voz de un intérprete en la canción de otro, la foto del Papa Francisco I con prendas o realizando actividades inusuales, o la creación de animaciones, que están circulando en las redes.

El acelerado desarrollo y expansión de la IA preocupa cada vez más, no solo a los países, que intentan legislar con apremio sobre la materia, sino también a los científicos y expertos en IA, que se han manifestado sobre la necesidad de ralentizar y de regular su avance, en aras de evitar que se convierta en una amenaza para la humanidad.

Según la publicación “Cinco Días”, un informe denominado Artificial Intelligence Index Report 2023 de la Universidad de Stanford, analizó las leyes aprobadas en 127 países desde 2016 hasta 2022, que contienen las palabras “inteligencia artificial” y encontró que desde el 2016, 31 de los 127 tienen por lo menos una ley aprobada en relación con IA.

De acuerdo con el reporte, Estados Unidos, con 22 leyes, es el país que más disposiciones ha expedido sobre la materia.

Por su parte, la Unión Europea (UE) ha propuesto una regulación basada en un sistema de clasificación de riesgos en cuatro niveles, a saber: riesgo inaceptable, riesgo alto, riesgo limitado y riesgo mínimo. La finalidad de la norma es regular los datos que utilizan las plataformas y los de sus usuarios y hacer frente a los posibles temas éticos y desafíos que puede conllevar la implementación de IA en los diversos sectores.

El gobierno de Canadá también presentó, en junio de 2022, el proyecto de ley C-27 con el fin de promover una industria de IA responsable y proteger a los canadienses contra los sistemas dañinos.

La razón de este frenesí legislativo obedece, en gran medida, a las alertas que han lanzado voces muy autorizadas sobre los peligros que representa, para la sociedad, una IA sin controles y cuyos alcances aún no se pueden dimensionar.

Uno de los personajes más emblemáticos, es Geofrey Hinton, conocido como “el padrino de la IA”, quien recientemente renunció a Google y declaró que estaba muy arrepentido del trabajo que había realizado.

Hinton manifestó a la BBC que los peligros de los chatbots eran aterradores y que, aunque en este momento las IA no son más inteligentes que los humanos, ello sucederá de manera inevitable y más rápido de lo que se espera y que pronto esta tecnología podría superar el nivel de información que puede almacenar un cerebro humano.

Mencionó también, que GPT-4 ha llegado a eclipsar, con creces, a las personas en la cantidad de conocimientos generales que detenta, y que, aunque en términos de razonamiento, no es tan bueno, ya ha comenzado a elaborar razonamientos sencillos.

Otras autoridades como Sundar Pichai, CEO de Google, manifestó su desconocimiento sobre todo lo que hacía el chatbot de esa compañía, Bard.

Esta declaración encendió las alarmas por cuanto refleja que los propios creadores y desarrolladores de esas herramientas pueden estar perdiendo el control sobre ellas.

Las anteriores preocupaciones son tan sólo unas pocas de todas las que se han producido entre los expertos, y realmente son inquietantes porque lo que plantean es que, por primera vez en la historia, la tecnología amenaza con desplazar al ser humano, en lugar de complementarlo, y esto marca un hito cuya magnitud y consecuencias aún no es posible ponderar.

¿Quiere publicar su edicto en línea?

Solo envíe su Edicto o Aviso de Ley, y recibirá la información para su publicación
Comprar ahora
Contáctenos vía WhatsApp

ÚLTIMA EDICIÓN IMPRESA