Facebook员工研究妨碍用户了解替代性意见的机制

© flickr.com / Master OSM 2011Facebook员工研究妨碍用户了解替代性意见的机制
Facebook员工研究妨碍用户了解替代性意见的机制 - 俄罗斯卫星通讯社
关注
社会学家的忧虑在上升,脸书社交网站(Facebook)及其它社交网站所采用的个人化过滤和新闻专线排名运算营造出所谓的“过滤器泡沫”。这些“泡沫”妨碍人们了解替代性观点。

据推测,这歪曲了对现实的接受,导致了负面的社会政治后果,比如:社会的极化,以及秉持不同观点的人们失去开展建设性对话的能力。

通过对1000万个Facebook美国用户的"友谊"联络和网络活跃度数据进行分析,证实自由主义者和保守主义者主要都是从自己的新闻专线获取契合自身政治观点的信息的。实际上,这种信息孤立远不是绝对的。

许多大型搜索引擎(如Google)和社交网络(如Facebook)对用户提供的数据进行过滤和排名,试图"猜中"用户的愿望。其它姑且不谈,猜想建立在用户过去的行为之上:他询问过什么、他选择了什么样的建议链接等。如果您的目标是订比萨饼或找到自己感到有意思的电影,这是很方便的。

但这种便利有着反面。举例说,您试图客观评价大家对某一重要政治新闻的各种看法。如果殷勤的运算只把您多半会同意的意见塞给您,那么您最终可能形成的是同事实相歪曲的图景。用户可能处于所谓的"共鸣箱"(Echo chamber)中,也就是说,在一个封闭的社群中,在这个箱子中,志同道合者相互交流他们所有人都同意的意见,那里没有替代性观点的容身之处。结果,这个人就开始想,他的立场是唯一正确的,在这个问题上,任何其它观点都不应该存在。在发达国家中,一些社会学家在此窥到了一种对民主的潜在威胁,因为媒体空间对封闭式"泡沫"的赞成招致了社会的极化,以及同持不同观点的人们开展建设性对话的能力。

一个由Facebook社交网站员工组成的研究小组试图在分析1000万名美国用户的网络活跃度大量数据的基础上评价灾难规模。作者们按照自由主义--保守主义五分制为每名用户打分,对500个最常见的自身观点定义进行排名。就像预计的那样,自由主义者的"朋友圈"中多是自由主义者,保守主义者的"朋友圈"中多是保守主义者。实际上,自由主义者和保守主义者大约有20%的朋友是持对立政治观点的用户。

明显,在有意识地选择观点一致者时,是人们自己限制了自身新闻专线获取替代性观点的通道。但数据过滤没有就此结束。下一个选择阶段是通过新闻专线自动收录排名运算进行的, 他们试图根据用户此前的活动来"猜想",用户对什么感兴趣。最后一个过滤阶段,也是第三个阶段,是再度通过用户来进行的,他或者顺着在新闻专线中看到的链接走,或者忽视它。

如果任何Facebook用户是偶然选择链接的,那么,那么他们所获得信息的40%-45%的可能与其政治观点不符。凭着人们主要选择志同道合者做朋友这一点,对保守主义者来说,"异己"链接比例将减至35%,而对自由主义者来说,"异己"链接比例将减至24%。在下个阶段,自动排名运算进入游戏。据查明,它们只是稍微缩减新闻专线中的替代性材料的比例。在接下去的第三阶段,用户自己从提供给他的链接中选择自己最感兴趣的链接,倾向于"思想上接近"的材料。结果在保守主义者现实考虑的材料中,"异己"材料占29%,而在自由主义者所阅读的材料中,替代性材料大约占20%。

这样,研究表明,Facebook的信息空间确实分为自由主义者群和保守主义者群。但两个阵营的孤立远不是绝对的:大量"异己"材料仍然落入用户视野中。为对材料进行意识形态过滤作出主要贡献的是志同道合者朋友圈用户的有意识的选择,其次是有意识地从新闻专线所提供的阅读材料中选择材料,再次才是试图猜中用户意愿的自动排名规则。 

当然,可以怀疑研究作者们的先入为主,因为他们是Facebook的员工,自然,该公司感兴趣的是证明自己的个人化过滤器具有社会安全性。从另一方面来说,作者们的结论可以经过独立专家们的检验。

关于社交网络的严肃研究及其对社会生活的影响力才刚刚开始,要谈最终结论为时尚早。

新闻时间线
0