Estudiando el tema de la implementación de “chatbots” en las empresas, nos dimos cuenta que jurídicamente el tema puede llegar a trascender más allá de la protección de datos personales yendo del simple escenario comercial de atención al cliente a temas con componentes jurídicos importantes.
Uso de la inteligencia artificial para la asesoría en toma de decisiones
En este tema, el uso de un “chatbot” para la atención comercial del cliente, la asistencia de sus trámites, por ejemplo, bancarios, de ubicación geográfica, de turismo, etc. y el hecho de que este proceso hoy se haga por un sistema configurado, especialmente para comunicarse en lenguaje natural con el usuario, es apenas la punta del iceberg.
El uso generalizado de sistemas de información ha hecho que surja un protagonista: los sistemas automatizados para la toma de decisiones que tienen la capacidad no solo de asesorar al usuario utilizando lenguaje natural, sino que, además, tienen la capacidad de tomar decisiones con base en modelos predictivos de alta precisión estadística dados por técnicas de machine learning.
Es precisamente, el uso del machine learning, entendido como la tecnología propia de la inteligencia artificial que le permite a la máquina aprender de la experiencia con base en los datos de entrada provistos, la figura que nos lleva a la reflexión sobre el uso avanzado de sistemas automatizados de toma de decisiones y nos muestra la necesidad de empezar a pensar en las herramientas jurídicas que vamos a brindar a la sociedad para el control de los problemas y situaciones que surjan de la implementación de este tipo de modelos.
Todos los sistemas de información basan su funcionamiento en un hecho que jurídicamente es relevante: la recolección y procesamiento de datos. En el aprendizaje de máquina -que hoy sustenta el funcionamiento de software y aplicaciones – podemos examinar la relevancia esa recolección y tratamiento, y el punto en el que lo podemos hacer es en la creación misma del sistema.
Los sistemas de aprendizaje de máquina se crean a partir de dos tipos de técnicas: supervisadas, que utilizan casos y datos predefinidos, ingresados y estructurados en su totalidad por el desarrollador, de tal manera que la máquina realiza el proceso de aprendizaje sobre un conjunto de variables ya predeterminado por su creador, y no supervisadas, en las cuales el desarrollador provee un conjunto de datos no necesariamente estructurados, de donde el sistema en sí mismo debe extraer la data relevante, hacer el procesamiento, sacar estadísticas y llegar por sí mismo a las predicciones o conclusiones.
Como puede notarse, el ingreso de datos para su procesamiento en procesos de aprendizaje de máquina procede directamente de quien creó el sistema, así como de quien lo configuró inicialmente con cualquier tipo de finalidad, ya sea comercial, académica, laboral, etc. Desde este punto de vista, los datos de entrada pueden estar sesgados de acuerdo con los rasgos de personalidad del propio desarrollador o de acuerdo con las clasificaciones y requerimientos que se hicieron inicialmente para el desarrollo del producto, sin que hasta el momento hayamos caído en cuenta de controlar este tipo de sesgo inicial que se imprime en los datos de entrada.
Los científicos del mundo entero han llamado la atención frente a este último aspecto, ya que los últimos desarrollos en materia de inteligencia artificial estarían desdibujando la “neutralidad” que creíamos implícita en las herramientas tecnológicas, para dar paso a sistemas que quizá promuevan sesgos o discriminación tan solo con su uso y sin que hasta el momento podamos percibir si esto sucede de manera intencionada.
Sesgo o discriminación en los sistemas de información
Las alertas no se han hecho esperar, el director de inteligencia artificial de Google, John Giannandrea, citado por el MIT Technology Review, dijo que lo que más le preocupaba de la inteligencia artificial en cuanto a los algoritmos de aprendizaje automático utilizados para la toma de decisiones es “que si les damos a estos sistemas datos sesgados, estarán sesgados”.
El problema jurídicamente relevante en este tema es la proliferación del uso de sistemas de información creados y entrenados con datos sesgados en materias críticas, como la financiera, la legal, la laboral, la médica y, por qué no, el consumo.
Varias empresas en EE UU han creado sistemas para identificar sesgo o discriminación en las ofertas de empleo por cuestión de género, edad o raza. En materia legal, hace poco, se conoció el estudio de ProPublica, una corporación sin ánimo de lucro que descubrió que el software utilizado por el sistema judicial en EE UU para determinar el riesgo de reincidencia “tenía el doble de probabilidades de señalar erróneamente a individuos de raza negra”.
No podemos cambiar la naturaleza humana, lo que si podemos hacer es regular las acciones que los individuos despliegan en sociedad. Aparte de los ejemplos en materia legal–criminal que revisten una importancia y merecen un tratamiento mucho más profundo, desde el punto de vista del Derecho Comercial, por ejemplo, el banco solo querrá hacer préstamos a quien tiene dinero y liquidez suficiente y la publicidad querrá ser dirigida puntualmente a un público objetivo con capacidad de compra del producto, ya que esto hace parte de la naturaleza propia de un comportamiento comercial en una sociedad de consumo.
El problema real es que estas clasificaciones “virtuales” resultan casi indefectiblemente en la discriminación que conocemos en la vida real y que ellas afectan en mayor porcentaje a la minoría de bajos recursos que, por ejemplo, queda sin acceso al sistema bancario o sin acceso a un trabajo.
Al parecer, con el avance de la tecnología, la sociedad de la información tendrá que forjar de nuevo o reforzar con más dedicación el respeto por los derechos y libertades cuya consecución hizo parte de la historia de la raza humana, pero esta vez han de ser forjados y luchados para su respeto y vigilancia en la red, ejemplo de eso es la lucha contra la discriminación, el racismo y la libertad de prensa en las redes sociales.
Creemos que la forma de lograr esta igualdad en el ciberespacio no es regulando la tecnología desde el caso concreto (error que viene cometiéndose en varias legislaciones). Se trata, desde la empresa, de dar transparencia a las relaciones con los usuarios, informando claramente sobre la utilización de la tecnología y los fines de la misma, tal y como ya lo estableció, por ejemplo, el nuevo reglamento de protección de datos de la Unión Europea (art 22) que entra en vigencia en el 2018.
Y se trata, desde el Gobierno, de darle mayor libertad a la creación de modelos de negocio para no estancar la innovación, pero también de darle mayor regulación a temas como, por ejemplo, la auditoría de los algoritmos en los que se sustenta la actividad comercial para evitar la exclusión o discriminación. Estos temas de fondo son los que nos llevan a una regulación con sentido y objetivo real.
Si tienes alguna duda o inquietud en temas de emprendimiento, creación de empresas, estructuración de modelos de negocio, dudas jurídicas relacionadas con negocios de tecnología o quieres una asesoría jurídica en temas de tecnología, ingresa a http://www.abogadotic.co, escríbenos al correo servicioalcliente@abogadotic.co
Por: Natalia Ospina Díaz
Abogada especialista en Derecho Informático y Nuevas Tecnologías