Un estudio de Facebook concluye que tú filtras las noticias más que su propio algoritmo

Propaganda

Facebook, conjuntamente con muchas otras redes sociales, se está convirtiendo en un centro de opiniones sobre noticias de actualidad y política. Prueba de ello son las campañas enteramente sociales que estamos viendo antes de las elecciones municipales españolas, por ejemplo. Y en Facebook hay equipos de personas que realizan estudios para analizar esta tendencia.

Eytan Bakshy es un científico especialista en ciencia de datos que trabaja en Facebook, y precisamente ha lanzado un estudio referente a las noticias políticas que vemos en nuestra portada a diario: creemos que lo que aparece ahí depende del propio algoritmo de la red social, pero por lo visto depende más de nosotros mismos.

Repasemos: lo que nos aparece en nuestra portada de Facebook nos lo muestra un algoritmo, que siempre nos intenta mostrar lo que más nos interese para que así hagamos click en el contenido y generemos ingresos mediante la publicidad y enlaces referidos que nos aparece durante toda esa interacción. De hecho una noticia de actualidad muy relacionada con esto es el cambio de ese algoritmo para priorizar más lo que publiquen nuestros amigos y no las Facebook Pages.

Dos filtros: el algoritmo y el usuario. Y el filtro del usuario actúa sobre los resultados del algoritmo

Y claro, si nosotros publicamos regularmente enlaces o contenido defendiendo a un partido político el algoritmo nos hará ver más contenido sobre ese partido que de otros con los que podemos estar en desacuerdo. Si nos gusta Podemos, veremos enlaces sobre Podemos. Si nos gusta Ciudadanos, veremos contenido de Ciudadanos.

Formulas

Por lo tanto, las noticias que consumimos desde Facebook son “filtradas” por ese algoritmo. Pero según el estudio, somos nosotros los que influimos más en ese filtrado de noticias. Más que incluso el algoritmo de Facebook. ¿Por qué? Porque nosotros también somos propensos a ignorar las noticias que nos coloque el algoritmo en la portada, dependiendo de si nos interesan más o menos. Dicho de otro modo, actuamos como un “segundo filtro” que polariza todavía más la inclinación política del contenido que nos aparezca.

El estudio se ha realizado con diez millones de usuarios estadounidenses de Facebook que comparten su ideología política claramente en su perfil (el fortísimo bipartidismo demócrata/liberal-republicano/conservador del país facilita las cosas). Así es como interpretan el resultado:

Al final encontramos que las elecciones individuales en términos de quién eligen como amigos y qué seleccionan [de las noticias en su portada] cuentan más que el efecto de la ordenación que hace el algoritmo.

Resulta que el algoritmo reduce la cantidad de noticias que no comparten la ideología del usuario sólo un 1%. Pero los usuarios conservadores que ven contenido liberal (que muestra el algoritmo) harán click en esas noticias un 17% menos de media. Y los liberales harán click un 6% menos en contenido conservador.

“No es nuestra culpa, tú también lo haces”

Debate

A modo de reflexión tras mostrar los resultados, Facebook comenta en su estudio que la polarización de las noticias que ve un usuario en Facebook no es algo bueno. Y es verdad, lo ideal es poder leer las opiniones contrarias y poder sacar tus propias conclusiones. Pero al mismo tiempo también defienden que el grado de polarización de su algoritmo (el primer filtro) es leve mientras que el usuario (el segundo filtro) es el responsable de llenar su portada con contenido cada vez más parcial.

Pero cuidado: el segundo filtro actúa de amplificador del primer filtro. Es decir, el usuario hace click en unas noticias e ignora otras, pero partiendo de una base ya filtrada por el algoritmo. Facebook se lava las manos opinando que “la exposición a puntos de vista opuestos es asociada a menores niveles de participación en la política“, de modo que critica la polarización de noticias pero al mismo tiempo intenta defender lo que hace su algoritmo.

Así que aquí todos polarizamos. Tanto el algoritmo de Facebook como nosotros cuando hacemos click sobre noticias que nos interesen. Facebook dice que es malo pero al mismo tiempo evita afrontar que parte de la culpa es suya. Al fin y al cabo, lo que elegimos leer o ignorar es lo que ese algoritmo nos coloca.

Imagen | Andrew Moore, amonroy, Donkeyhotey

via

Anuncios
Acerca de

Chileno. Tecnólogo Médico, Magister en cs de la Ingeniería mención Biotecnología. Nerd, Geek y orgulloso integrante del Partido Pirata de Chile Ⓟ.

Publicado en Cultura, Política, Sociedad, Tecnología

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

Introduce tu dirección de correo electrónico para seguir este Blog y recibir las notificaciones de las nuevas publicaciones en tu buzón de correo electrónico.

Únete a otros 528 seguidores

Member of The Internet Defense League

Sígueme en Twitter
A %d blogueros les gusta esto: