EL ALGORITMO DEL ODIO

Por Daniel Bello

En la actualidad, casi todos saben, con diferentes grados de conocimiento, que las redes sociales, en especial Facebook, funciona por un algoritmo y que, básicamente, tienen la intención de que nuestra navegación y el tiempo que pasamos en la red sea lo más placentero y confortable posible.
Esto hace de nuestras redes barrios cerrados en torno a nuestra afinidad política, gustos musicales, comida o fútbol.
Esa fórmula del placer virtual en cierta manera nos aísla, nos segmenta.
Es decir, nos aísla y nos segmenta porque, en definitiva, nos enviará contenidos acordes a nuestros perfiles debido a que nos constituye como consumidores en potencia y no como usuarios libres.

Ahora bien, tras el pseudo escándalo de Analytica Cambridgeincluido el rol que tuvo en nuestro país– sabemos que esa segmentación puede usarse no sólo para vendernos algo sino también para hacernos partícipes de cuestiones políticas o bien víctimas del odio, como sucede en Alemania respecto a la cantidad y a los sucesivos ataques a refugiados, según determinó un estudio de investigadores de la Universidad de Warwick publicado en el New York Times.

Violencia en Altena

Dirk Denkhaus vive en Altena, Alemania. Fue definido como un joven que no se inmiscuía en política, ni religión; sin embargo, forzó la cerradura de una casa que alojaba refugiados y trató de incendiarla.

Pese a que hubo apoyo a la moción del alcalde Andreas Hollstein para aceptar una asignación adicional de refugiados, la violencia en Altena ha ido en aumento. Según una publicación del NewYork Times, los investigadores Karsten Müller y Carlo Schwarz, ambos de la Universidad de Warwick, analizaron cada ataque antirrefugiados en Alemania – 3,335 en total- en un lapso de dos años.

Lo que ha determinado este estudio es que en las ciudades donde el uso de Facebook era más alto que el promedio, como sucede en Altena, experimentaron más ataques contra los refugiados. Este agite de la violencia no tenía otros lugares de expresión más que en facebook. Cuando se consultó a facebook sobre este tema, respondió: “Nuestro enfoque sobre lo que está permitido en Facebook ha evolucionado con el tiempo y continúa cambiando a medida que aprendemos de expertos en el campo”.

EdgeRank

Así se llama el algoritmo que utiliza Facebook, según nos cuenta Natalia Zuazo en su libro “Los dueños de internet”. Y en una analogía al contenido secreto de la fórmula de la Coca Cola, nos indica que nadie habla sobre cómo se compone esa fórmula que nos segmenta de acuerdo a las utilidades y necesidades de Facebook.
En dicho libro cuenta, entre otras cuestiones, cómo durante 2016 y 2017, la periodista Julia Angwin publicó una serie de artículos sobre cómo Facebook permitía segmentar anuncios de ventas y alquiler de casas solamente para los blancos de la población, dado que la plataforma de publicidad identificaba a los negros como poco solventes a la hora de afrontar dicho gasto.
A la comunidad negra se le sumaban personas con algún grado de discapacidad, madres con hijos e inmigrantes, entre otrxs.
Esta acción violaba claramente la Ley de acceso justo a la vivienda de Estados Unidos, además de reproducir modelos de estigmatización, discriminación y exclusión capitalistas y patriarcales.

Agwin también mostró cómo Facebook permitía publicar avisos segmentados a la categoría “los que odian a los judíos” que, a su vez, formaba parte de la lista con los “supremacistas blancos”. Sin embargo, tras los asesinatos de afrodescendientes originados por parte de la policía en Ferguson -Estados Unidos-, debió eliminarlos de la lista.
En aquella oportunidad, el argumento fue el mismo que utilizaron para el caso de Alemania: promesa de monitorear mejor los avisos publicados para que el mecanismo de inteligencia artificial no creara sesgos de odio.

Si tomamos en cuenta lo que pasa en Alemania, Facebook no estaría cumpliendo su promesa ni vigilando bien, aunque sabemos que, sin embargo, si hay algo que hace bien Facebook, es vigilar.

El otro vigilante

El ex comediante devenido en actor y militante político de Cambiemos, Alfredo Caseros, en la entrevista con Alejandro Fantino realizó un despliegue discursivo de odio y construcción de sentido alarmantes.
No sólo por el ataque al trabajo de Las Abuelas de Plaza de Mayo y por poner en duda la restitución de la identidad del último nieto, Marco, sino que también desplegó un sinfín de lugares comunes que son peligrosos.
Uno de esos lugares, acaso el que más rebote mediático tuvo, fue que básicamente la culpa de que todo se originaba por aquellos que pidieron “flan”. Es imposible saber si no se animó a decir “plan” abiertamente o si ya venía con el libreto preparado. Lo que sí es posible saber, es que esto fue reforzado y alentado por Mauricio Macri, quien posó para una polémica y desubicada foto en la que aparece comiendo un flan.

La imagen se difundió por las redes de tal manera, que incluso atravesó desde el barrio de militancia de Cambiemos hacia el campo opositor, desde donde se la volvía a publicar con enojo y desacuerdo.
Ese contenido no necesitó pasar por segmentación alguna de la red social Facebook.
Ese contenido saltó el cerco y aterrizó perfectamente en nuestros muros.
Tras este agite mediático, de redes sociales y discursivo, llegó lo que se vio por la televisión el martes 21 de agosto: gente gritando que quería flan -es decir que quería un plan- y que se deshizo en amenazas de asesinatos y fusilamientos e incluso en alusiones a que “la estaban pasando mal”.
Una clara señal de que el desastre económico del país está pegando en todos los sectores y sin distinción de pensamiento, aún cuando esa manifestación del martes prefiera echarle la culpa al gobierno anterior y no a los ya 3 años de gestión del actual gobierno.
Esta maquinaria en acción muestra un claro ejemplo de cómo se genera un mensaje de odio, se lo avala desde una Institución, se canaliza por las redes, desde dónde se avala la violencia que, en última instancia, efectúan los receptorxs/consumidorxs. Estxs últimos son quienes amenazan explícitamente con violencia, y así “ no hay culpa” en el origen del mensaje.

¿Es inexorable que en breve tengamos una acción violenta o al menos un intento? Las coincidencias de manipulación de los algoritmos del odio nos acercan cada vez más a una respuesta positiva. Basta ver que quienes pedían el flan el martes pasado, también afirman que no hay que inmiscuirse ni en política, ni religión, como lo hacía Dirk Denkhaus, que vive en Altena, Alemania.

OTRAS NOTAS