3 Facebook的方式可以减少假新闻

公众得到了很多 来自Facebook的新闻和信息。 有些是假的。 这给网站的用户和公司本身带来了问题。

Facebook的联合创始人兼董事长马克·扎克伯格(Mark Zuckerberg)表示,公司将会设法解决这个问题,尽管他没有承认这个问题的严重性。 而且没有明显的讽刺意味,他在一份声明中这样宣布 Facebook发布 包围 - 至少对一些观众来说 - 由假新闻项目.

其他技术领先的公司,像Google这样的公众如何利用自己的力量,已经努力工作了很多年 降低低质量的信息 在他们的搜索结果。 但Facebook并没有采取类似的措施来帮助用户。

Facebook可以做些什么来满足社会责任,从而为小说的事实分类 70互联网用户的百分比 谁访问Facebook? 如果这个网站越来越多地被人们收到新闻,那么这个公司又能做什么,而不用担负最后的仲裁者呢? 我作为信息研究教授的工作表明,至少有三种选择。

Facebook的角色

Facebook说这是一个 科技公司,而不是媒体公司。 公司的主要动机是利润,而不是一个 更高的目标 如生产高质量的信息,以帮助公众在世界上有知识的行为。

尽管如此,网站上的帖子以及周围的在线和离线对话日益增多 涉及到我们的公共话语 和国家的政治议程。 因此,公司有社会义务使用其技术来促进共同利益。


内在自我订阅图形


然而,从虚伪中辨别真相可能是令人生畏的。 Facebook并不孤单 引起人们对其能力的担忧 - 和其他科技公司的情况 - 判断新闻的质量。 导演 FactCheck.org,一家位于宾夕法尼亚大学的非营利性事实调查组织告诉彭博社 许多说法和故事并不完全是错误的。 很多有 内核的真相,即使他们是非常误导性的措词。 那么Facebook真的可以做什么?

选项1:轻推

Facebook可以采用的一个选项包括使用现有的列表识别预筛选的可靠和 假新闻网站。 然后该网站可以提醒那些想分享一个麻烦的文章,其来源是可疑的。

例如,一名开发人员已经为Chrome浏览器创建了一个扩展 这表明当一个网站 你在看可能是假的。 (他称之为“BS检测器”。)在一个36小时的黑客马拉松中,一群大学生 创建了类似的Chrome浏览器扩展 这表明该文章来自的网站是在经过验证的可靠网站列表上,还是未经验证。

这些扩展程序在人们滚动浏览新闻时显示警报。 目前,这些都不是直接作为Facebook的一部分。 集成它们将提供更加无缝的体验,并且将使所有Facebook用户都可以使用该服务,而不仅仅是那些在自己的计算机上安装其中一个扩展的用户。

该公司还可以使用扩展所生成的信息(或其来源资料)在用户共享不可靠的信息之前提醒用户。 在软件设计的世界里,这被称为“轻移。“警告系统监视用户的行为,并通知人们或给他们一些反馈,以帮助改变他们在使用软件时的行为。

之前已经完成了这个任务,用于其他目的。 比如我在锡拉丘兹大学的同事 建立了一个推动应用程序 监视Facebook用户在新帖子中撰写的内容。 如果他们正在写的内容是他们可能会后悔的东西的话,那么它会弹出一个通知,比如发出愤怒的消息。

轻推的美妙之处在于它们提醒人们行为的温和而有效的方式,以帮助他们改变行为。 研究已经测试了使用轻推 改善健康行为例如,发现人们更可能根据温和的提示和建议改变他们的饮食和锻炼。 微调可以是有效的,因为它们让人们控制,同时也给他们有用的信息。 归根结底,接受者仍然决定是否使用提供的反馈。 轻蔑不觉得强制; 相反,他们可能赋予权力。

选项2:众包

Facebook还可以利用众包的力量帮助评估新闻来源,并指出何时分享的新闻已经过评估和评估。 假新闻带来的一个重要挑战是它如何影响我们的大脑。 我们有精神捷径,叫 认知偏差,当我们没有足够的信息(我们从来没有做过)或者有足够的时间(我们从来没有做过)时,它们帮助我们做出决定。 通常这些捷径对我们来说很好,因为我们决定从哪个路线开车去工作到买什么车。但偶尔他们也会让我们失望。 因为假新闻而下降是其中的一例。

这可能发生在任何人身上,甚至是我。 在主要季节,我正在关注当时的主要候选人唐纳德·特朗普(Donald Trump)在推特上发布的推特标签。 一个消息出现,我发现有点令人震惊。 我用一个嘲讽它的冒犯性的评论来转发它。 一天之后,我意识到推特是从一个模仿账户看起来与特朗普的Twitter手柄名称相同,但一个字母改变了。

我错过了,因为我堕落了 确认偏误 - 倾向于忽略一些信息,因为它违背了我的期望,预测或预感。 在这种情况下,我忽略了那个小小的声音,告诉我这个特别的推特比特朗普顶一点,因为我相信他能够产生更不合适的消息。 假消息以同样的方式向我们发起攻击。

假新闻带来的另一个问题是,它比以后可能出现的任何更正都要远得多。 这与报道错误信息时一直面临的挑战类似。 虽然他们发表了更正,但是原来接触到错误信息的人们往往不会看到更新,因此不知道他们之前读的是错的。 而且,人们倾向于坚持他们遇到的第一个信息, 更正甚至可能适得其反 重复错误的信息,强化读者心中的错误。

如果人们在阅读信息时对信息进行评估,并分享评分,那么真实分数就像是微软的应用程序一样。 这可以帮助用户自行决定是阅读,分享还是简单地忽略。 众包的一个挑战是人们可以在这些系统上进行游戏来尝试和推动偏见的结果。 但是,众包的美妙之处在于,群众也可以评价评价者,就像在Reddit或亚马逊的评论中发生的那样,可以减少捣乱者的影响和重量。

选项3:算法社交距离

Facebook可以帮助的第三种方法是减少目前在Facebook中存在的算法偏差。 该网站主要显示来自Facebook上的用户的帖子。 换句话说,Facebook算法创造了一些人所称的 过滤泡泡,这是一个在线新闻现象 有关学者 几十年了。 如果你只暴露了自己的想法的人,它会导致 政治极化:自由主义在自由主义中变得更加极端,保守派变得更加保守。

过滤器泡沫创造了一个“回声室”,类似的想法在那里不断地反弹,但新的信息 很难找到方向。 当回声室阻塞纠正或事实核实信息时,这是一个问题。

如果Facebook开放更多的新闻来自社交网络中的随机人群的新闻馈送,这将增加新信息,替代信息和矛盾信息在该网络内流动的可能性。 平均数量 Facebook用户网络中的朋友是338。 尽管我们中的很多人都有分享我们的价值观和信仰的朋友和家人,但我们也有熟人和陌生人,他们是我们脸书网络的一部分,他们的观点截然相反。 如果Facebook的算法为我们的网络带来了更多的观点,那么过滤泡将会更加多孔。

所有这些选项都在Facebook的工程师和研究人员的能力范围之内。 他们将使用户能够对他们选择阅读的信息做出更好的决定,并与他们的社交网络分享。 Facebook作为信息传播的主要平台,通过言语和信息共享成为社会政治文化的产物,不一定是事实的最终仲裁者。 但它可以利用其社交网络的力量来帮助用户评估他们所面对的内容流中的项目的价值。

谈话

关于作者

Jennifer Stromer-Galley,信息研究教授, Syracuse University

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍:

at InnerSelf 市场和亚马逊