Facebook: un problema de transparencia que influye en las ideas de sus
usuarios
La Comisión de Comercio del senado de los Estados
Unidos ya ha invitado a Facebook a ofrecer un relato completo acerca de cómo la
compañía opera.
Fue a mediados de 2014 cuando se dio a conocer
que Facebook había realizado en
2012 un experimento sin el
consentimiento de sus usuarios: sus investigadores alteraron el tipo de
contenidos de los muros de 690.000 personas con el fin de conocer las
reacciones emotivas de sus suscriptores. A unos perfiles se les mostraba sólo
publicaciones positivas y a otros sólo negativas.
Los resultados del estudio fueron publicados a
finales de junio de 2014 en Proceedings of the National Academy of Science y
mostraron que las personas expuestas a contenidos negativos eran más propensas
a publicar cosas negativas mientras que resultaron más optimistas con sus
publicaciones aquellos que veían en sus muros noticias positivas. El
experimento, por tanto, demostró que Facebook es capaz de alterar el estado
emocional de sus usuarios.
¿Y si en lugar de emociones fueran determinadas
ideas o posturas políticas o socio-religiosas? El lunes 9 de mayo de 2016 la
web Gizmodo.com destapó el caso: Facebook altera los resultados en los muros de
sus usuarios controlando que el tipo de informaciones que reciben como
«tendencias» sean siempre las progresistas (cf. Former Facebook
Workers: We Routinely Suppressed Conservative News).
El «modus operandi» lo revelaron ex trabajadores (news
curators) que dijeron haber sido obligados a tapar noticias conservadores y
resaltar las progresistas; afirmaron que recibían órdenes de destacar sólo las
noticias progresistas en la pestaña de «tendencias» (trending news) de
la red social.
Pronto un portavoz de Facebook afirmó que las
directrices de la empresa no permitían la supresión de determinado tipo de
ideas pero no desmintió que algunos empleados pudieran seguir el propio
criterio a la hora de seleccionar qué sí y qué no aparece en los muros de los
usuarios como noticia relevante.
No es la primera vez que Facebook está involucrado
en casos de sesgo ideológico. El estudio «True Liberty in a New Media Age: An
Examination of the Threat of Anti-Christian Censorship and Other Viewpoint
Discrimination on New Media Platforms» («Libertad Verdadera en una Nueva Era
Mediática: Análisis de la Amenaza de la Censura Anticristiana y de la
Discriminación de otras Opiniones en las Nuevas Plataformas de Medios») muestra
precisamente cómo Facebook bloquea opiniones cristianas no ofensivas y mantiene
sin censura páginas o publicaciones manifiesta y groseramente anti cristianas.
No resulta irrelevante que Facebook se posicione a
favor o en contra, exhibiendo u ocultando, determinado tipo de contenidos en
vista de que no es un medio editorial sino un distribuidor de contenidos. Y es
precisamente aquí donde radica lo preocupante del asunto. Que en la «culture
war» Facebook tome partido y muestre un sesgo ideológico debe constituir
una advertencia: por una parte, para no creer que lo relevante que aparece en
la red social realmente lo sea y, por otra, para no perder de vista que cuando
un medio de comunicación toma partido implica para el usuario el plantearse
también el tomar partido por esa u otra red social afín a sus ideas.
Fuente:
Extractado de Zenit, 25/5/2016.
No hay comentarios:
Publicar un comentario