Esta época del año es decisiva para las sociedades, ya que se celebran las asambleas ordinarias de accionistas o juntas de socios. Estas reuniones constituyen el epicentro del funcionamiento corporativo, pues en ellas se toman decisiones estratégicas, se revela información clave sobre la sociedad y son el espacio natural para que los socios o accionistas indaguen, evalúen e intervengan directa y activamente. Como resultado de estas reuniones y como prueba de las discusiones, decisiones e información presentada, se elaboran actas, las cuales son posteriormente asentadas en los libros societarios.
Tradicionalmente, la elaboración de las actas ha sido un proceso lento, costoso y propenso a errores o imprecisiones. Sin embargo, en los últimos años, con la irrupción de la inteligencia artificial (IA), se han desarrollado herramientas de IA que permiten transcribir las discusiones sostenidas en estas reuniones y generar actas de manera mucho más rápida y eficiente.
Pero ¿qué se debe tener en cuenta para su uso adecuado y seguro? Algunos entes nacionales e internacionales se han pronunciado y han establecido lineamientos claves que las sociedades deben considerar:
1. Consentimiento de los participantes de la reunión. Como lo ha señalado la Superintendencia de Industria y Comercio en la Circular Externa No. 002 de 2024, los responsables del tratamiento de datos personales en la IA deben contar con la autorización previa, expresa e informada del titular de la información. Así mismo, deberán ser capaces de demostrar que han implementado medidas apropiadas, efectivas y verificables para cumplir con las obligaciones establecidas en la Ley 1581 de 2012 (principio de responsabilidad demostrada).
2. Uso de IA privada. La IA privada opera en entornos cerrados y restringidos, permitiendo el acceso únicamente a personal o entidades autorizadas. A diferencia de la IA pública, se alimenta de datos privados y está diseñada para procesar datos personales o información de propiedad exclusiva de las empresas. Su implementación garantiza un uso más seguro; sin embargo, es fundamental que se realice una revisión de los términos y condiciones de cada herramienta de IA antes de su adopción y una verificación que los datos suministrados no se compartirán de ninguna manera a terceros o sean usados para otros fines.
3. Contar con un profesional. Diversos entes nacionales, como la Corte Constitucional y el Gobierno Nacional, así como organismos internacionales como la UNESCO, han establecido el principio de control humano o supervisión y decisión humana en el uso de IA. Este principio enfatiza que la IA debe ser utilizada como una herramienta de apoyo, siempre bajo la supervisión de un profesional que evalúe y valide el contenido generado. Así se asegura que la responsabilidad recae en una persona y no en un sistema automatizado.
Complementando lo anterior, la implementación de este tipo de herramientas de IA en cualquier sociedad debe realizarse estableciendo políticas internas rigurosas de ciberseguridad y protección de datos, además de establecer lineamientos claros sobre su uso ético y adecuado dentro de la organización.
Es fundamental que nos adaptemos a estas nuevas herramientas y aceptemos que su uso se está convirtiendo en una parte esencial de nuestro trabajo diario. No obstante, su implementación debe llevarse a cabo de manera responsable, cumpliendo estrictamente con, entre otros, los principios de responsabilidad, privacidad, seguridad y control humano.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp