Facebook的问题比假新闻更复杂

唐纳德·特朗普出人意料的胜利之后,许多人 问题 已经提出了关于Facebook的角色 促进不准确和高度党派信息 在总统竞选期间,这个假新闻是否影响了选举的结果。

有一些淡化了 Facebook的影响,包括首席执行官马克·扎克伯格(Mark Zuckerberg),他说 “极不可能” 这个假新闻可能影响了选举。 但是关于社交网络的政治意义的问题,更值得关注。

做Facebook的 过滤算法 解释为什么如此多的自由派人士对克林顿胜利的信心放错了位置(回应了克林顿所犯的错误 罗姆尼在2012的支持者)? 并且是 假消息在Facebook上传播 那么多特朗普的支持者是否赞同他们的候选人所作的虚假陈述呢?

“过滤泡沫”这个流行的说法是,为什么假消息在Facebook上茁壮成长几乎肯定是错误的。 如果网络鼓励人们相信虚假的话,那么这就是一个很大的问题 - 这个问题更可能在于平台如何与基本的人类社会倾向相互作用。 这是很难改变的。

一个错误的公众

Facebook在传播政治新闻方面的作用是不可否认的。 5月份2016, 44美国人的百分比 说他们从社交媒体网站得到消息。 而通过Facebook传播的错误信息的流行是 不可否认.


内在自我订阅图形


那么,如此多的人获得新闻的平台上的假新闻数量可能有助于解释原因 许多美国人对政治有误解.

但很难说这有多可能。 我开始研究互联网在2008大选中宣扬错误信仰的作用,把我的注意力转向了2012的社交媒体。 在正在进行的研究中,我发现很少有一致的证据表明,社交媒体的使用促使人们接受有关候选人的虚假陈述 许多不诚实的流行。 相反,在2012中,就像在2008中一样, 电子邮件仍然是一个独特而强大的渠道 为谎言和阴谋理论。 社交媒体对人们的信仰没有可靠的检测效果。

不过,现在我们假设2016与2012和2008不同。 (这次选举在许多方面当然是独一无二的。)

如果Facebook正在推广一个公民不能从小说中辨别真相的平台, 这将对美国民主构成严重威胁。 但是命名这个问题是不够的。 为了对抗通过社交媒体传播错误信息,重要的是了解为什么发生这种情况。

不要责怪过滤泡沫

Facebook希望其用户能够参与进来,而不是不知所措,因此它使用专有软件来过滤用户的新闻提要并选择将出现的内容。 风险在于如何剪裁。

有足够的证据 人们被吸引到肯定他们的政治观点的新闻。 Facebook的软件从用户过去的行为中学习; 它试图猜测他们将来可能点击或分享哪些故事。 采取其极端,这产生了一个 过滤泡泡,其中用户仅暴露于重申其偏见的内容。 那么风险就是这样 过滤泡沫促进误解 通过隐藏真相。

这个解释的吸引力是显而易见的。 这很容易理解,所以也许很容易解决。 摆脱个性化的新闻提要,并过滤气泡不再。

过滤泡沫隐喻的问题是,它假定人们完全与其他观点绝缘。 事实上, 众多 研究 已可以选用 如图 个人的媒体饮食几乎总是包含挑战其政治态度的信息和来源。 并研究Facebook的用户数据 发现与交叉信息的交流非常普遍。 换句话说,抱有错误的信念不太可能被人们所解释 缺乏更准确的消息接触.

相反,人们的预先存在的政治身份 深刻地塑造他们的信仰。 所以即使面对相同的信息,无论是一个 新闻文章 或者 事实核查,不同政治取向的人往往会提取出不同的意义。

一个思想实验可能会有所帮助:如果你是克林顿的支持者,你是否意识到备受尊敬的预测网站FiveThirtyEight 只给了克林顿一个71获胜的机会? 这些可能性比掷硬币好,但远不是一件确定的事情。 我怀疑,尽管看到这个不舒服的证据,很多民主党人都感到震惊。 确实, 许多人对这个预测是批评的 在选举前几天。

如果你投票支持特朗普,你有没有遇到有关特朗普关于选民欺诈在美国司空见惯的说法? 事实验查员新闻机构 已经广泛地涉及这个问题,提供强有力的证据证明索赔是不真实的。 然而,特朗普的支持者可能不为所动: 在9月的2016民意调查中90特朗普支持者的百分比表示,他们不相信事实检查。

Facebook =愤怒的游击队员?

如果与事实的隔离真的是不准确的信息的主要来源,解决方案将是显而易见的:使真相更加明显。

不幸的是,答案并不那么简单。 这让我们回到Facebook的问题:服务的其他方面是否会扭曲用户的信念?

研究人员可以自信地回答这个问题还有一段时间,但是作为研究其他互联网技术如何导致人们相信虚假信息的各种方式的人,我准备提供一些有教育意义的猜测。

有两件事我们已经知道Facebook可能会鼓励传播虚假信息。

首先,情绪具有传染性,可以在Facebook上传播。 一项大规模的研究表明,Facebook用户的新闻提要只有微小的变化 可以塑造他们在后面的帖子中表达的情绪。 在这项研究中,情绪变化很小,但新闻馈送的变化也是如此。 想象一下Facebook用户如何回应广泛的候选人腐败,犯罪活动和谎言的指责。 这并不奇怪 将近一半 (49%)的所有用户将社交媒体的政治讨论形容为“愤怒”。

谈到政治,愤怒是一种强烈的情感。 它被证明是造人的 更愿意接受党派的虚假 并更有可能发布和分享 政治信息,大概包括强化他们信仰的假新闻。 如果脸书使用让游击队生气,同时也暴露他们的党派虚伪,确保准确的信息的存在可能并不重要。 共和党或民主党人,愤怒的人相信信息,使他们的一面看起来不错。

其次,Facebook似乎强化了人们的政治认同 - 进一步推动了一个已经很大的政治认同 党派分歧。 尽管Facebook不会屏蔽人们不同意的信息,但它确实使找到志趣相投的人更容易。 我们的社交网络 倾向于包括许多分享我们的价值观和信仰的人。 这可能是Facebook加强政治动机虚假的另一种方式。 信仰常常起到社会作用,帮助人们界定他们是谁,以及他们如何适应这个世界。 人们从政治角度看待自己越容易,他们越重视确认身份的信仰。

这两个因素 - 愤怒可以传播到Facebook的社交网络的方式,以及这些网络如何让个人的政治身份更加重要 - 可能会比所谓的过滤泡泡更有效地解释Facebook用户的不准确信念。

如果这是真的,那么我们面临着一个严峻的挑战。 Facebook可能会相信改变其过滤算法,以优先更准确的信息。 谷歌已经 也进行了类似的努力。 而最近的报道显示Facebook可能是 更重视这个问题 比扎克伯格的评论暗示。

但是,这无助于解决传播和加强虚假信息的根本力量:情感和社交网络中的人们。 Facebook的这些特征也不能够或者应该被“纠正”,显而易见的是,一个没有情感的社交网络似乎是一种矛盾,而且监督个人与谁交往并不是我们社会应该拥抱的东西。

这可能是Facebook的股票 一些 的责任 一些 这个选举年流传的谎言 - 他们改变了选举的过程。

如果属实,挑战将是弄清楚我们能做些什么。

谈话

关于作者

R. Kelly Garrett,传播学副教授, 美国俄亥俄州立大学

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍

at InnerSelf 市场和亚马逊