Facebook o Fakebook

El riesgo, y la amenaza, de vivir atrapados por un algoritmo es real. El placebo digital que generan las burbujas informativas es tan sedante como artificial. Y peligroso. Alimenta nuestros prejuicios, ofreciendo contenidos que han sido identificados como convenientes —por complacientes y dóciles—  para nuestras convicciones. Secuestrada nuestra capacidad de elección consciente, nos sumimos en un entorno de autoafirmación, cada vez más excluyente y reverberante. El eco se apodera de la conversación. Y lo que escuchamos no son otras voces —otros argumentos, otros datos, otras ideas— sino nuestra propia voz.

En la pasada campaña electoral norteamericana vivimos, intensamente, en una burbuja de contenidos generada automáticamente por algoritmos que procesan big data electoral. La robotización de la comunicación política se ha consolidado de manera extraordinaria. De los trolls a los bots. Lo importante era alimentar el engagement (la actividad e interacción constante del internauta con la oferta de contenidos) de los electores y activistas digitales, incluyendo noticias equívocas, inexactas… El hecho de que la difusión de noticias falsas en Facebook generara reafirmación agitada entre los seguidores de Donald Trump, por ejemplo, fue el resultado lógico de la aplicación de las técnicas denominadas black hat (posicionamiento artificial en redes para conseguir relevancia e influencia).

Además, hay que tener en cuenta otro dato importante: casi el 50 % de los norteamericanos se informaron sobre las elecciones presidenciales a través de Facebook. Es un efecto directo de la desintermediación informativa a la que las redes sociales nos están acostumbrando al recibir los contenidos. Estas burbujas de información o filter bubble influencian a los usuarios, porque les contaminan. Acaban ofreciéndoles contenidos en función de sus preferencias y las de sus contactos. Esta situación agrava el aislamiento informativo, e irrumpe la posverdad (palabra del año para el Diccionario Oxford), en la que las informaciones rigurosas tienen menos influencia que las creencias y las emociones personales. El prejuicio es más reconfortante que el juicio. Facebook ya realizó pruebas alterando el suministro de noticias en determinados usuarios para comprobar si al recibir noticias positivas o negativas, ellos también cambiaban su estado de ánimo. El resultado fue que sí, que los usuarios son influenciables. Lo mismo sucedió con The Guardian, que realizó un experimento con varios lectores. El resultado fue alarmante.

Las redes, sobre todo Facebook, están empezando a reaccionar por miedo reputacional. En el mes de octubre, Facebook y Twitter se unieron a la iniciativa de Google, First Draft Coalition, con el objetivo de combatir la difusión de noticias falsas. Y, días antes de las elecciones estadounidenses, Facebook implementó un sistema de suspensión automática para evitar la difusión de dichos contenidos. Pero esa capacidad discrecional también puede servir para otras prácticas como la elaboración de listas negras, las sospechas de partidismo y, en definitiva, la ruptura de la neutralidad de la Red en pro de la veracidad informativa. En esta línea, The New York Times ha desvelado que Facebook estaría probando una herramienta para ocultar determinadas informaciones por zonas geográficas, con el objetivo de contentar al régimen chino.

Siendo Facebook un medio de referencia para muchos usuarios, y viendo la posible influencia que podía haber tenido en el resultado de las elecciones americanas, muchos usuarios realizaron críticas sobre la permisividad en la publicación de estas noticias. A raíz de dichas críticas, Mark Zuckerberg publicó una nota en la que exponía siete medidas para tratar de atajar el problema. Estas medidas proponen reforzar los algoritmos para la detección de noticias falsas, facilitar la denuncia por parte de los usuarios, ofrecer informes sobre ellas, poder calificarlas como dudosas, dar más visibilidad a contenidos de referencia y atacar los ingresos que sean generados por informaciones falsas. Pero, la alteración de los algoritmos podría modificar una de las principales fuentes de ingresos de Facebook: la enorme tarta de la inversión publicitaria segmentada. ¿Cómo resolverán este conflicto de intereses?

Estamos en un momento crucial. Prevenirnos del algoritmo que nos seduce y reduce, porque nos convierte en adictos de nuestros propios prejuicios, es clave si queremos una sociedad más conectada pero más libre.

Publicado en: El Periódico (3.12.2016)

Enlaces de interés:
El problema con la influencia de Facebook y sus burbujas de información (New York Times)
Fake news: an insidious trend that’s fast becoming a global problem (The Guardian, 2.12.2016)
Mark Zuckerberg anuncia 7 medidas para atajar las noticias falsas en Facebook (La Vanguardia)
Analizando la campaña de Trump y el “efecto Facebook”(Enrique Dans)
Facebook prepara herramientas de censura política para contentar al régimen chino  (La Vanguardia)
El ambiente está contaminado por noticias falsas (El País)
Cómo combatir la posverdad (El País)
Así influye Facebook en tus opiniones (El País)
La rebelión de las redes (José Antonio Marina. El Confidencial, 6.12.2016)
Facebook Shouldn’t Fact-Check (Jessica Lessin. The New York Times, 29.11.2016)
– This is how Facebook’s fake-news writers make money (The Washington Post. Abby Ohlheiser, 18.11.2016)
Facebook apuesta por el periodismo de calidad (Raquel Seco. El País, 11.11.2017)
Cómo ganar 3.000 euros con patrañas políticas (Luis Arroyo. infoLibre, 13.01.2017)
– Facebook mueve ficha en su batalla contra las “fake news” mientras pone ojitos a las marcas (Marketing Directo, 26.01.2017)

Etiquetas: , , ,

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *