¿Deberían ponerle reglas a la inteligencia artificial?
La conversación entre el hombre y las máquinas a través de la inteligencia artificial está alcanzando límites insospechados y genera muchas inquietudes respecto al futuro de esta interacción. La disrupción este año de incontables aplicaciones de este tipo que, además de intentar resolver cualquier tipo de cuestionamientos, ofrecen soluciones de índole profesional, tales como redacción de textos, diseño de sitios web, creación de imágenes, entre muchas otras, han creado un “monstruo” con miles de usos, pero al mismo tiempo con mucha incertidumbre y algunos dilemas éticos muy profundos.
Jorge Gil, de Blue DesignWorldwide. Foto cortesía.
El caso más conocido y mediático ha sido el de Chat GPT, un sistema de chat inteligente que ya avanza por su cuarta generación. Este fue creado por la empresa OpenAI que conversa en tiempo real con los usuarios por medio de texto y resuelve sus preguntas. Sin embargo, a este se le han sumado más aplicaciones, entre las cuales se destacan Midjourney, para dibujar lienzos con base en la información que se le suministre; Deepl, para traducción de textos; Riverside, para transcripciones de audios, entre muchas más.
Aún con la utilidad de estas aplicaciones, el uso de estas herramientas está transgrediendo la barrera entre lo ficticio y lo real; casos recientes que se hicieron virales en las redes sociales, como el uso de una foto del papa Francisco con una chaqueta de invierno, que simulaba al sumo pontífice usando este tipo de prenda, así como la elaboración de unas imágenes de la cantante Selena Gómez que recreaban una supuesta presencia suya en la gala MET en Nueva York, mientras ella estaba a cientos de kilómetros de distancia, o las críticas del cantante Ryan Castro por el uso de esta herramienta para sobreponer la voz de algunos artistas en otras pistas musicales, son solo dos ejemplos de lo que puede llegar a pasar, si no es que ya está sucediendo.
Jorge Gil, CMO de Blue Design Worldwide, una agencia pionera en el uso de la inteligencia artificial enfocada en servicio al cliente, comenta que estos desarrollos ofrecen tantas posibilidades como riesgos en distintos escenarios, y menciona el caso de sectores como el educativo, en el cual un estudiante podría, con solo algunas palabras claves, obtener la elaboración de un trabajo escrito en segundos, o en la salud, en el que el sistema puede recomendarle al usuario tomarse determinado medicamento o qué acciones tomar si sufre de ansiedad o depresión, lo cual es preocupante por las implicaciones que esto puede llegar a tener, incluso desde el punto de vista legal.
“El Chat GPT llegó para proponernos una conversación escrita con una máquina que ha ido aprendiendo por medio de machine learning algunas variaciones de respuestas y es programada por medio de algoritmos. Estos han sido madurados hasta el punto de que hoy tiene infinidad de respuestas. De hecho, ya existen desarrollos conocidos como la ‘versión diablo del Chat GPT’, que recurre al mismo lenguaje que utiliza la máquina a partir de algunos parámetros y, por tanto, aumenta el poder de sus respuestas, inclusive en temas en los que con lenguaje humano la máquina diría que no está en capacidad de resolver su duda porque es algo contrario a las normas”, expresa Jorge Gil.
¿Qué hacer para controlar a la inteligencia artificial?
En palabras de Jorge Gil, existen dos maneras de establecer reglas de juego concretas para el desarrollo de la inteligencia artificial y de establecer controles para su uso dentro de un marco ético. El primero es que las máquinas no “piensan” por sí solas y no saben qué está bien y qué está mal, ya que son programadas por seres humanos. Por tanto, todas las empresas que están trabajando en estos avances deberían ajustarse a algunos lineamientos y estándares en cuanto al lenguaje que se les suministre, para que la situación no se salga de control, con consecuencias muy nefastas.
“La inteligencia artificial puede llegar a ser capaz, por sus propios medios de encontrar vulnerabilidades en los sistemas bancarios, de coger todo su dinero y llevarlo a donde quiera. Una inteligencia artificial es capaz de descifrar un código de seguridad en menos de un minuto, lo cual a otras personas o herramientas les tomaría años. Los alcances son inimaginables”, advierte Gil.
Por eso es importante generar módulos de inteligencia artificial que ataquen a las inteligencias artificiales dañinas creadas por empresas de seguridad informática; es, por decirlo de alguna manera, un “fuego contra fuego”. La inteligencia artificial, mezclada con computación cuántica, será imposible de descifrar por el ser humano para poder detectar de dónde provienen dichos riesgos.
El segundo punto que comenta el experto es que los humanos tenemos que desarrollar la capacidad de detectar cuándo algo es producido con inteligencia artificial, y por eso las universidades y los colegios no solo deberían trabajar en aprender a identificar estas señales, sino de formar a sus estudiantes en estos temas, porque el reto que se viene es muy grande.
Recuerden contarme sobre posibles temas e invitados para este blog, para mi programa de TV Negocios en tu Mundo y para nuestra colección de libros Historias de Negocios Altamente Inspiradoras. Me encuentran en mi mail juany@agenciastm.com y mis redes sociales: Twitter, Linkedin, Facebook e Instagram. Les invito a leer Historias de Negocios Altamente Inspiradoras -versión Pandemia-, que pueden conseguir en este link de la Librería Nacional. Es un texto muy potente y útil.
Comentarios