Las percepciones, positivas o negativas que nos acompañarán durante el día, van a estar altamente influenciadas por las primeras noticias que leamos o escuchemos.
¿Qué fue lo primero que hiciste esta mañana? Podría apostar que te levantaste, tomaste tu celular, revisaste la hora y de inmediato fuiste a tus redes sociales para ponerte al día de lo que pasó en el mundo, con tus amigos y, tal vez, pillar una que otra noticia de tu interés, antes de retomar tu vida cotidiana.
No es difícil anticipar estas conductas, ya que es la rutina generalizada de millenials, y de todas aquellas generaciones que la preceden. También de muchos baby boomers, ya que la tecnología ha terminado por permear a toda la sociedad, casi sin distinción de ningún tipo. Es así como los celulares inteligentes y el internet hacen ya parte de esa canasta básica de bienes y servicios necesarias en la vida moderna, y todo lo que esto conlleva.
Al respecto, Zachary Lipton en 2016 escribió un artículo titulado The Foundations of Algorithmic Bias, en el cual inicia dando demasiado crédito a Facebook, red social que ha decaído en importancia desde entonces, al punto que muchos la consideran un poco anticuada al lado de otras de mayor preponderancia entre los jóvenes como Instagram y Tik Tok, por ejemplo. Pese a esto, su tesis prevalece. Él afirma que los algoritmos que seleccionan las noticias e información que aparecerá cada día en nuestros celulares tienen un poder gigantesco sobre nosotros.
Las percepciones, positivas o negativas que nos acompañarán durante el día, van a estar altamente influenciadas por las primeras noticias que leamos o escuchemos. De igual forma, nuestras decisiones y acciones van a estar soportadas sobre esos estados de ánimo.
Las viejas aseveraciones de los economistas clásicos que afirmaban que los seres humanos somos racionales han quedado desvirtuadas gracias al avance de ciencias como la psicología y la sociología, las cuales han puesto de manifiesto que muchas de las decisiones que tomamos están sesgadas por el estado de ánimo, por ejemplo. No se apuesta lo mismo cuando se está eufórico que cuando se está triste, ni se emprenden los mismos negocios.
Para ilustrar mejor el punto anterior, puede el lector buscar por la web estudios relacionados con el efecto del día de la semana en cuanto a la probabilidad de que los índices bursátiles arrojen ganancia o pérdida, y se dará cuenta que es un hecho latente y ampliamente estudiado. Los seres humanos somos sensibles a lo que representa un lunes o un viernes en nuestra jornada.
De la misma forma, la cantidad reciente de noticias sobre un hecho puede afectar la forma en que estimamos la probabilidad de ocurrencia de este. Si nuestra red social preferida para ver noticias muestra varias referencias a ataques de tiburón, de seguro el lector tendrá una percepción distorsionada del riesgo de morir por el ataque de estos animales.
Deténgase por un momento y estime ¿cuál cree usted es la probabilidad de morir por un ataque de tiburón?
Es probable que al contrastar su respuesta con los datos entregados por el Instituto Australiano de Ciencia Marina se sienta un poco fuera de foco. Según estos, en 30 años Estados Unidos reportó la muerte de 12 personas por ataques de este tipo, al tiempo que aproximadamente 1.500 personas murieron por impacto de rayos, únicamente en la región costera. A esto se le conoce como el sesgo de la disponibilidad, y se genera cuando echamos mano de los ejemplos que rápidamente llegan a nuestra mente para estimar la proporción o probabilidad de un evento.
Los sesgos que tiene el ser humano a la hora de tomar decisiones son muchos. Pero acá vale la pena pensar un poco en el sesgo de la disponibilidad y en la forma como las noticias alteran nuestro estado de ánimo, y cómo estos están estrechamente asociados a los motores de búsqueda de noticias de nuestros dispositivos móviles y de nuestras redes sociales.
Y es que los efectos pueden ser desde sutiles hasta afectar la elección de un candidato en las próximas elecciones, propiciado por la forma en que las redes sociales nos entregan información de uno u otro aspirante. Como el famoso caso de Cambridge Analytica en el cual se inculpó a una empresa de “soporte digital” en su intención de querer influenciar la decisión de millones de americanos en las elecciones presidenciales, a través de la información dispuesta en sus cuentas de Facebook. Lo que no es un hecho menor.
Por tanto, y dado que está demostrado que los seres humanos no siempre somos racionales, se debe pensar en la forma de contrarrestar efectos negativos que lleven a las personas a tomar decisiones, aún en contra de sus propios intereses, guiados por algoritmos inteligentes.
No obstante, tampoco vale la pena truncar el desarrollo de la Inteligencia Artificial (IA) basados en los riesgos que trae consigo la tecnología, sino que se debe analizar muy bien el correcto funcionamiento de estos y cómo introducirlos de forma responsable en la vida de sus usuarios. Tal como afirma Alejandra Soler en un artículo para AsuntosLegales: “Sin desconocer la necesidad de abordar las discusiones éticas y jurídicas sobre la IA, ojalá que el entusiasmo regulatorio no sea lo que impulse las transformaciones normativas, sino la experiencia y la diversidad de voces para una regulación más eficiente”.
@joseluisalayon