Imagen con alusión a las redes sociales y el discurso de odio. Montaje de OLB
Imagen con alusión a las redes sociales y el discurso de odio. Montaje de OLB

Caso #1: El dilema del odio y las ‘fake news’

Desde las elecciones de 2016 Facebook ha estado lidiando con la desinformación y la violencia en Internet

Qué sucede cuando la plataforma que has creado funciona como vehículo para el intercambio de noticias falsas, desinformación y megáfono para los discursos de odio? Muchas cosas. Entre ellas, fraudes electorales, golpes de Estado, revueltas ciudadanas y planificación de crímenes. Combatir el discurso del odio y las fake news ha sido uno de los dolores de cabeza más constantes para Facebook, al menos desde aquellas elecciones estadounidenses de 2016.

El término fake news (noticias falsas) ya había sido ampliamente utilizado en otras épocas y otros contextos. Pero fueron las elecciones del 8 de noviembre de 2016 —en las que ganó el republicano Donald Trump frente a la demócrata Hillary Clinton en una de las sorpresas electorales más dramáticas de la historia estadounidense— y el auge de las redes sociales en la segunda década del siglo XXI las que impulsaron no solo la palabra, pero también su puesta en escena.

Vídeo: repaso de los escándalos protagonizados por Facebook desde 2016. Olivia L. Bueno

Tan solo días después de los comicios el fundador de la compañía, Mark Zuckerberg, comentaba a través de una intervención en directo en la red social que "el 99% de las historias que se comparten en Facebook son veraces. Solo una pequeña cantidad es falsa o con noticias inventadas". Sin embargo, unos días después se supo que un grupo de empleados había actuado de forma independiente y en secreto durante la campaña para frenar la difusión de informaciones falsas.

La desinformación, pese a lo que decía el jefe de una de las empresas más importantes del mundo, era un problema enorme que pronto se saldría de control. Cinco días después, Zuckerberg anunciaba un plan de siete puntos para combatir las noticias falsas. Google se unía a la "batalla" imponiendo medidas en el buscador para evitar que los contenidos no verificados se beneficiaran de sus servicios de publicidad.

El año cerraba con una demanda que atraparía todas las miradas. El 12 de junio había ocurrido la mayor matanza hasta entonces en Estados Unidos a manos de una única persona. Omar Siddique Mateen de 29 años asesinó a 49 personas en la discoteca gay Pulse, de Orlando, Florida y unos meses después, en diciembre, los familiares de las víctimas demandaron a Facebook, Google y Twitter por no haber evitado que los grupos terroristas, cada vez más complejos, esparcieran su propaganda en sus plataformas. Otra palabra, nada nueva, comenzaba a crearle problemas a la compañía: odio.

Ese odio y esas noticias falsas en Facebook volvieron a ganar visibilidad en 2020, a tan solo meses de las próximas elecciones estadounidenses. En junio, cientos de empleados de Facebook decidieron protestar por la decisión de la cúpula de la compañía de mantenerse al margen de los mensajes incendiarios que el presidente Donald Trump, ha ido colgando en la plataforma en los últimos días sobre todo tras la muerte en manos de la policía de George Floyd , un suceso que avivó la discusión sobre el racismo en la policía estadounidense.

A las protestas de los empleados se sumó un boicot comercial: más de 160 empresas, entre ellas algunos de los mayores anunciantes del mundo, decidieron suspender la publicidad en Facebook en respuesta a la falta de compromiso de la compañía con el control de la información tóxica y el discurso de odio.

El plantón de los anunciantes y la caída de las acciones de la compañía llevaron a Zuckerberg a anunciar controles, a los que se había negado durante años, para evitar la propagación de la violencia, el discurso del odio y las teorías conspirativas, particularmente lesivas en un contexto de pandemia. Era la senda seguida por otras empresas como Twitter o Google para afrontar el desafío mayúsculo de frenar la desinformación en Internet. Está por ver que lo consigan.

Retina

25/10/2020
07
El transporte que mola, en la Revista Retina

El transporte que mola, en la Revista Retina

“¿Es verdad que para desplazarse por la calle una sola persona se montaba en un artefacto contaminante de una tonelada que estaba aparcado el 95% del tiempo?”, nos preguntarán nuestros nietos.

Normas