Por Natalia Díaz, Directora de Compliance para SAP LAC North.

La rápida evolución de la tecnología, que en los últimos años ha crecido de manera exponencial, ha hecho cada vez más necesaria la creación de marcos éticos robustos que guíen su desarrollo y aplicación. La UNESCO ha liderado durante décadas los esfuerzos internacionales para garantizar que la ciencia y la tecnología se desarrollen dentro de dichos lineamientos.

Desde la investigación genética hasta el cambio climático y la investigación científica, esta organización ha creado normas universales que maximizan los beneficios de los descubrimientos científicos mientras minimizan sus riesgos, asegurando su contribución a un mundo más inclusivo, sostenible y pacífico.

Uno de los esfuerzos más recientes y destacados es el Observatorio Global de Ética y Gobernanza de la IA. Este observatorio busca proporcionar un recurso global para que los responsables de políticas, reguladores, académicos, el sector privado y la sociedad civil encuentren soluciones a los desafíos más urgentes que plantea la inteligencia artificial.

Este enfoque colaborativo es crucial, ya que la gobernanza adecuada de la IA es uno de los retos más trascendentales de nuestro tiempo, requiriendo un aprendizaje mutuo basado en las lecciones y buenas prácticas emergentes de diferentes equipos, organizaciones civiles y empresas en todo el mundo.

Un enfoque global con compromisos claros

Siguiendo los principios establecidos por la Naciones Unidas, empresas como SAP han adoptado un enfoque proactivo para garantizar el uso ético y responsable de la IA. Desde 2018, la compañía ha estado comprometida con el desarrollo de IA basada en los más altos estándares éticos, de seguridad y privacidad. En línea con lo que recomiendan organizaciones internacionales, las grandes empresas de tecnología deben abordar las preocupaciones sobre sesgos y discriminación al diseñar sus aplicaciones de IA, trabajando para que sean transparentes y explicables. Además, es necesario mantener los más altos estándares en cuanto a privacidad de datos, protección de información y ciberseguridad.

Más organizaciones alrededor del mundo deben reforzar su compromiso con los 10 principios rectores de la recomendación sobre la Ética de la Inteligencia Artificial. Estos principios abarcan proporcionalidad, seguridad, equidad, sostenibilidad, privacidad, supervisión humana, transparencia, responsabilidad, conciencia y colaboración multilateral, asegurando que las soluciones de IA respeten los derechos humanos y contribuyan al desarrollo sostenible.

En línea con las recomendaciones internacionales para garantizar el uso ético de la IA, las organizaciones pueden dar pasos que incluyan la adopción de un enfoque proactivo y multifacético de la IA. Una de las acciones más relevantes está relacionada con el desarrollo y adopción de políticas claras, incluyendo un código de ética que defina los principios y valores que guiarán el uso y desarrollo de la IA dentro de la empresa.

Otra recomendación para las organizaciones es fomentar la formación y capacitación regular para sus colaboradores acerca de ética tecnológica, privacidad de datos y seguridad cibernética. La creación de un entorno consciente es clave para que toda la organización, desde la alta dirección, hasta los empleados de base puedan seguir las políticas de IA.

En la medida en la que las interacciones de los usuarios con la tecnología requieren del intercambio de datos, un aspecto clave para garantizar un buen uso de la IA es la transparencia frente a cómo se recopilan, utilizan y protegen estos datos. Esta transparencia puede incluir la publicación de informes periódicos sobre las prácticas éticas y de privacidad de la empresa, incluyendo, en la medida de lo posible, auditorías externas.

Finalmente, las organizaciones pueden establecer comités de ética o consejos asesores para supervisar y evaluar las prácticas tecnológicas de la empresa. Este tipo de acciones dan una muestra de la relevancia que tiene para la empresa el cumplimiento de sus propios lineamientos frente a la IA, al tiempo que genera unos precedentes que pueden facilitar la toma de decisiones en el futuro.

En definitiva, garantizar el uso ético de la IA requiere un compromiso integral y continuo. Al implementar estas prácticas, las compañías no solo pueden proteger a sus usuarios y mejorar su reputación, sino también contribuir positivamente a la sociedad y fomentar un entorno de innovación responsable y sostenible.