Una crítica clave del efecto de Facebook en el mundo es que refuerza las burbujas de filtro, y hace que sea casi imposible para la audiencia saber por qué o cómo llegan a ler ciertas noticias o información.
Eli Pariser, director ejecutivo de Upworthy, afirma que los algoritmos pueden tener dos efectos en nuestro ecosistema de medios: en primer lugar, «ayudan a la gente a rodearse de medios que refuerzan lo que ya creen»; en segundo lugar, «tienden a degradar el tipo de medios que es más necesario en una democracia, noticias e información sobre los temas sociales más importantes». El contenido que cada usuario ve en Facebook se filtra según su elección social de amigos y comportamiento en la plataforma (lo que eligen como “me gusta”, comentar, compartir o leer), así como por un conjunto de suposiciones que el algoritmo de plataforma realiza sobre qué contenido vamos a disfrutar.
Un estudio publicado en la revista Science y escrito por tres miembros del equipo de ciencias de datos de Facebook encontró que el algoritmo News Feed suprime lo que llamaron «contenido diverso» en un 8% para los liberales auto identificados y el 5% para los conservadores auto identificados. El estudio, que fue inicialmente posicionado para refutar el impacto de las burbujas de filtro, también encontró que cuanto más relevante es una noticia en el Feed, más probable es que se pinche en la misma y menos probable que sea diversa. Como el estudioso de medios y tecnología Zeynep Tufekci escribe en Medium, «Usted está viendo menos noticias con las que no está de acuerdo compartidas por sus amigos porque el algoritmo no las está mostrando».
Y este proceso de filtrado algorítmico puede ser manipulado, tal como Eli Pariser dice: «Los algoritmos estaban tirando de fuentes diversas… y entonces cobró conciencia. Los creadores del contenido se dieron cuenta de que esa era la dinámica en la que estaban trabajando y se nutrieron. ¿Qué sucede cuando no sólo existe esa dinámica, sino que la gente sabe que existe y piensa en cómo reforzarla? »
Tomemos, por ejemplo, la falta inicial de cobertura de las protestas de Ferguson en Facebook. El análisis de Tufekci reveló que «el algoritmo del News Feed de Facebook enterró en gran parte las noticias de protestas por el asesinato de Michael Brown por un oficial de policía en Ferguson, Missouri, probablemente porque la historia ciertamente no era «gustable» e incluso difícil de comentar. Mientras muchos usuarios estaban inmersos en las noticias de las protestas en sus feeds de Twitter (que en ese momento no estaba determinado por un algoritmo, sino que era en cambio una visualización secuencial de los posts de las personas que seguían), cuando fueron a Facebook, sus feeds se llenaron con entradas sobre el desafío del cubo de hielo (una campaña viral para promover la conciencia de ELA). Esto no era simplemente una cuestión de la cantidad de historias que se están escribiendo sobre cada evento. Tal y como el periodista John McDermott describe, mientras que había más noticias publicadas acerca de Ferguson que del desafío del cubo de hielo, estas recibieron muchas menos referencias en Facebook. En Twitter, fue lo contrario.
Este tipo de sesgos algorítmicos contiene implicaciones significativas para el periodismo. Mientras que las organizaciones de periodismo impreso y de difusión podían controlar la gama de contenidos que se introducían en sus productos y, de ese modo, proporcionar a su audiencia una diversidad de puntos de vista y tipos de contenido (deportes, entretenimiento, noticias e incluso periodismo de rendición de cuentas), en el algoritmo de Facebook toda la información – incluyendo el periodismo – es atomizada y distribuida sobre la base de un conjunto de reglas ocultas, inexplicables, rápidamente iterantes e individualizadas. El efecto de las burbujas de filtro significa que el debate público se basa menos en una narrativa común y en un conjunto de verdades aceptadas, que una vez respaldaron el discurso cívico.