Un Estudio De Facebook Concluye Que tú Filtras Las Noticias más Que Su Propio Algoritmo
Enviado por xcHALox • 11 de Mayo de 2015 • 685 Palabras (3 Páginas) • 187 Visitas
Propaganda
Comentarios 3
Guardar Compartir en Facebook Twitter Google+ E-mail
Facebook, conjuntamente con muchas otras redes sociales, se está convirtiendo en un centro de opiniones sobre noticias de actualidad y política. Prueba de ello son las campañas enteramente sociales que estamos viendo antes de las elecciones municipales españolas, por ejemplo. Y en Facebook hay equipos de personas que realizan estudios para analizar esta tendencia.
Eytan Bakshy es un científico especialista en ciencia de datos que trabaja en Facebook, y precisamente ha lanzado un estudio referente a las noticias políticas que vemos en nuestra portada a diario: creemos que lo que aparece ahí depende del propio algoritmo de la red social, pero por lo visto depende más de nosotros mismos.
Repasemos: lo que nos aparece en nuestra portada de Facebook nos lo muestra un algoritmo, que siempre nos intenta mostrar lo que más nos interese para que así hagamos click en el contenido y generemos ingresos mediante la publicidad y enlaces referidos que nos aparece durante toda esa interacción. De hecho una noticia de actualidad muy relacionada con esto es el cambio de ese algoritmo para priorizar más lo que publiquen nuestros amigos y no las Facebook Pages.
Dos filtros: el algoritmo y el usuario. Y el filtro del usuario actúa sobre los resultados del algoritmo
Y claro, si nosotros publicamos regularmente enlaces o contenido defendiendo a un partido político el algoritmo nos hará ver más contenido sobre ese partido que de otros con los que podemos estar en desacuerdo. Si nos gusta Podemos, veremos enlaces sobre Podemos. Si nos gusta Ciudadanos, veremos contenido de Ciudadanos.
Formulas
Por lo tanto, las noticias que consumimos desde Facebook son "filtradas" por ese algoritmo. Pero según el estudio, somos nosotros los que influimos más en ese filtrado de noticias. Más que incluso el algoritmo de Facebook. ¿Por qué? Porque nosotros también somos propensos a ignorar las noticias que nos coloque el algoritmo en la portada, dependiendo de si nos interesan más o menos. Dicho de otro modo, actuamos como un "segundo filtro" que polariza todavía más la inclinación política del contenido que nos aparezca.
El estudio se ha realizado con diez millones de usuarios estadounidenses de Facebook que comparten su ideología política claramente en su perfil (el fortísimo bipartidismo demócrata/liberal-republicano/conservador del país facilita las cosas). Así es como interpretan el resultado:
Al final encontramos que las elecciones individuales en términos de quién eligen como amigos y qué seleccionan [de las noticias en su portada] cuentan más que el efecto de la ordenación que hace el algoritmo.
Resulta que el algoritmo reduce la cantidad de noticias que no comparten la ideología del usuario sólo un 1%. Pero los usuarios conservadores
...