Misinformation And Biases Infect Social Media, Both Intentionally And AccidentallyFakey游戏截图。 Mihai Avram和Filippo Menczer

社交媒体是其中之一 美国主要的新闻来源 并在世界各地。 然而,用户会接触到可疑准确性的内容,其中包括 阴谋论, clickbait, 超党派内容, 伪科学 乃至 捏造“假新闻”报道.

发布这么多的虚假信息并不奇怪:垃圾邮件和在线欺诈 对犯罪分子来说是有利可图的,政府和政治宣传产出 党派和经济利益。 但事实如此 低可信度内容的传播非常迅速和轻松 暗示社交媒体平台背后的人和算法容易受到操纵。

我们的研究发现了三种偏见,使社交媒体生态系统容易受到有意和无意的错误信息的影响。 这就是我们的原因 社交媒体观察站 在印第安纳大学正在建设 工具 帮助人们意识到这些偏见并保护自己免受外部影响,以利用它们。

解释社会媒体观察站开发的工具:


innerself subscribe graphic


{youtube}https://youtu.be/BIv9054dBBI{/youtube}

偏见在大脑中

认知偏差源于大脑处理每个人每天遇到的信息的方式。 大脑只能处理有限数量的信息,并且可能导致太多输入刺激 信息超载。 这本身对社交媒体信息的质量有着严重的影响。 我们发现,对于用户有限的关注的激烈竞争意味着 尽管质量低下,但一些想法仍然存在即使人们更喜欢分享高质量的内容.

为了避免不知所措,大脑使用一个 技巧的数量。 这些方法通常是有效的,但也可以 成为偏见 当在错误的环境中应用时。

当一个人决定是否分享在他们的社交媒体上显示的故事时,会发生一种认知捷径。 人们是 非常受标题情感内涵的影响,尽管这不是衡量文章准确性的好指标。 更重要的是 谁写了这篇文章.

为了应对这种偏见,并帮助人们在分享之前更多地关注索赔的来源,我们开发了这个产品 Fakey,一个移动新闻素养游戏(免费) AndroidiOS)模拟一个典型的社交媒体新闻馈送,结合主流和低可信度来源的新闻文章。 玩家可以获得更多积分,从可靠来源分享新闻并标记可疑内容进行事实核查。 在这个过程中,他们学会识别源头可信度的信号,比如超级党派主张和感情负责的头条新闻。

社会偏见

偏见的另一个来源来自社会。 当人们直接与同龄人交往时,引导他们选择朋友的社会偏见会影响他们看到的信息。

事实上,在我们的研究中,我们发现它是可能的 确定Twitter用户的政治倾向 通过简单地看待他们的朋友的党派偏好。 我们分析这些结构 党派通信网络 发现社交网络在传播信息方面特别高效 - 准确与否 - 何时 他们紧密联系在一起,与社会其他部分脱节.

如果信息来源于他们自己的社交圈子,那么评估信息的倾向就会更加“回声室“无论是有意还是无意地操纵都是成熟的。 这有助于解释为什么如此多的在线对话转入 “我们与他们”的对抗.

为了研究在线社交网络的结构如何使用户容易受到虚假信息的影响, Hoaxy,这是一个跟踪和可视化来自低可信度内容的内容传播的系统,以及它如何与事实检查内容竞争。 我们对Hoaxy在2016美国总统选举期间收集的数据的分析表明,分享错误信息的Twitter账户是 几乎完全切断 从事实核查员所做的更正。

当我们深入了解错误信息传播账户时,我们发现几乎完全相互转发的非常密集的核心账户组 - 包括几个机器人。 事实核查组织曾经被错误组织用户引用或提及的唯一一次是在质疑其合法性或声称与他们所写的内容相反时。

在机器中偏差

第三组偏见直接来自用于确定人们在线看到的算法。 社交媒体平台和搜索引擎都使用它们。 这些个性化技术旨在为每个用户选择最具吸引力和最相关的内容。 但是这样做可能最终会加剧用户的认知和社会偏见,从而使他们更容易被操纵。

例如,详细 广告工具内置于许多社交媒体平台 让虚假信息活动者利用 确认偏误 by 剪裁消息 对已经倾向于相信他们的人们来说。

另外,如果用户经常点击来自特定新闻来源的Facebook链接,Facebook将会 倾向于向该人显示更多该网站的内容。 这个所谓的“过滤泡泡“效应可能将人们从不同的角度分离出来,加强确认偏见。

我们自己的研究表明,社交媒体平台可以让用户获得比非社交媒体网站(如维基百科)更少的来源。 因为这是一个整体平台,而不是一个用户,我们称之为 同质性偏见.

根据获得最多点击次数的信息,社交媒体的另一个重要组成部分是趋势平台上的信息。 我们称之为 人气偏见,因为我们发现设计用于推广流行内容的算法可能会对平台上的整体信息质量产生负面影响。 这也加入到现有的认知偏见中,加强看似流行的东西,而不管它的质量如何。

所有这些算法偏见都可以被操纵 社交机器人,通过社交媒体帐户与人类交互的计算机程序。 大多数社交机器人,如Twitter的 大本钟,都是无害的。 然而,有些人隐瞒了他们的真实本质,并被用于恶意的意图,比如 推动假情况 或者是错误的 创造了草根运动的外观,也被称为“astroturfing”。我们发现 这种类型的操纵的证据 在2010美国期中选举之前。

为了研究这些操纵策略,我们开发了一个工具来检测所谓的社交机器人 Botometer。 Botometer使用机器学习来检测僵尸账户,通过检查Twitter账户的数千种不同功能,例如其帖子的时间,推文的频率以及随后推送的账户。 这不是完美的,但它已经显示,多达 15的Twitter帐户百分比显示出是僵尸的迹象.

通过使用Botometer和Hoaxy,我们在2016美国总统竞选期间分析了错误信息网络的核心。 我们发现许多机器人利用受害者的认知,确认和流行偏见以及Twitter的算法偏见。

这些机器人能够围绕易受攻击的用户构建过滤器气泡,为他们提供错误的声明和错误信息。 首先,他们可以通过发送候选人的主题标签或通过提及和转发该人来吸引支持特定候选人的人类用户的注意力。 然后,僵尸程序可以通过从匹配特定关键字的低可信度来源中转发文章来放大虚假声明,从而抹黑对手。 此活动还使该算法突出显示其他用户广泛分享的虚假故事。

了解复杂的漏洞

即使我们的研究和其他研究表明个人,机构乃至整个社会如何在社交媒体上被操纵,也存在 许多问题 留下来回答。 发现这些不同的偏见如何相互影响是非常重要的,这可能会造成更复杂的漏洞。

The Conversation像我们这样的工具可以为互联网用户提供更多关于虚假信息的信息,因此可以在一定程度上保护其免受危害 解决方案将会 不可能只是技术,尽管他们可能会有一些技术方面的问题。 但他们必须考虑到 认知和社会方面 的问题。

作者简介

Giovanni Luca Ciampaglia,印第安纳大学网络科学研究所助理研究科学家, 美国印第安纳大学 和计算机科学与信息学教授Filippo Menczer; 复杂网络和系统研究中心主任, 美国印第安纳大学

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍

at

break

感谢造访 InnerSelf.com, 哪里有 20,000+ 宣传“新态度和新可能性”的改变生活的文章。 所有文章均翻译为 30多种语言. 订阅 每周出版的《内在自我》杂志和玛丽·T·拉塞尔的《每日灵感》。 InnerSelf杂志 自 1985 年起出版。