Logo oe

¿Es Facebook un instrumento de polarización?

Larger larger bubblenews
Arrow red
El 23% de nuestros amigos en Facebook y el 29% de las noticias que recibimos tienen una orientación ideológica distinta de la nuestra.
11 de mayo de 2015
Red star
Por qué es importante
Facebook es el medio de comunicación con mayor lectoría en el mundo.

Los motores de búsqueda, las redes sociales y los sitios de compra online tienen a la personalización como un elemento importante de su oferta de valor, pues son capaces de utilizar la historia de interacciones previas con un usuario para sugerirle contenido que podría ser relevante para él. Sin embargo, la personalización también tendría su lado negativo, según algunos expertos.

Por ejemplo, Cass Sunstein en su libro republic.com señala que la personalización de los medios de comunicación, entendida como el hecho de que un consumidor pueda elegir ver, oir o leer el contenido informativo que le plazca,  podría afectar la libertad de expresión y la democracia. ¿Por qué? Porque el hecho de que cada ser humano pueda construir una caja de resonancia de sus propias ideas podría erosionar las bases del diálogo político y crear una sociedad más polarizada.

Facebook es uno de los ejemplos que se suele utilizar para ilustrar este riesgo. Por un lado, son los mismos algoritmos que llevan a que los amantes de los animales reciban más alertas de posts de amigos con la misma afición los que hacen que una persona termine siendo expuesta a más información de fuentes afines con sus ideas. Por otro lado, cada vez se generaliza más la práctica de darle “unfriend” o “unfollow” a contactos cuyas opiniones despiertan oposición o rechazo en un  usuario.

Un estudio reciente publicado en la revista Science y realizado por investigadores de Facebook que analizaron el patrón de navegación de 10 millones de usuarios de la red social en los últimos 6 meses concluyó que:

  • Las redes de amigos y las historias que leen los usuarios están sesgadas de acuerdo con sus preferencias ideológicas: el porcentaje de los amigos de los usuarios y de las noticias de contenido opuesto a la postura ideológica del usuario es relativamente bajo: 23% y 29% respectivamente.
  • Este sesgo estaría alimentado más por una decisión propia de los usuarios que por la acción de los mecanismos de filtro o algoritmos de Facebook.

Es decir, para Facebook la preocupación de Sunstein no es descabellada. Sin embargo, para la red social, el responsable de la construcción de estas cajas de resonancia personalizadas es el usuario y no el algoritmo que usa la empresa para decidir qué noticias mostrarle a los usuarios.

El estudio realizado por Facebook es importante porque la red social es de-facto el medio de comunicación con mayor lectoría del mundo. Sin embargo, tiene algunas limitaciones que investigadores independientes no han tardado en hacer notar. En primer lugar, que la muestra tomada de usuarios ha sido sesgada a aquellos que han decidido hacer pública su afiliación política, cuando la mayoría de los usuarios prefiere no mostrarla. En segundo lugar, el acceso a los datos que sirveron de base para la realización del estudio no son públicos y por ello el análisis que se puede hacer de ellos es limitado. 

Sin lugar a dudas, este tema seguirá discutiéndose. Eli Parisier, autor del libro “The Filter Bubble: What the Internet is Hiding from you”, explica claramente en el video siguiente lo que está en juego. Le recomendamos verlo.