技术能够拯救我们从社交媒体上的错误信息?

如果你从社交媒体上得到你的消息, 大多数美国人呢,你接触到日常的恶作剧,谣言,阴谋论和误导性消息。 当来自诚实来源的可靠信息都混杂在一起时,事实可能很难辨别。

实际上,我的研究小组分析了哥伦比亚大学的数据 应急 流言追踪者暗示这一点 错误信息同样可能发生病毒 作为可靠的信息。

许多人在问,这是否是数字化错误信息的猛攻 影响了结果 2016美国大选 事实是我们不知道,虽然有理由相信这是完全可能的,基于 过去的分析来自其他国家的帐户。 每一个错误的信息都有助于塑造我们的意见。 总的来说,伤害可能是非常真实的。

作为通过社交媒体传播错误信息的研究人员,我知道限制新闻媒体公司销售广告的能力, 谷歌Facebook是朝着正确的方向迈出的一步。 但不会遏制政治动机所驱使的弊端。

利用社交媒体

关于10几年前,我和我的同事们跑了一场 实验 其中我们了解到72大部分学生信任的链接似乎来源于朋友,甚至是在钓鱼网站上输入个人登录信息。 这种普遍的漏洞提示了另一种形式的恶意操纵:人们也可能相信他们点击社交联系人链接时收到的错误信息。

为了探索这个想法,我创建了一个 假的网页 随机的,电脑产生的八卦新闻 - 诸如“Celebrity X与名人Y睡在一起”等等。访问该网站的访客寻找一个名字会触发剧本自动编写一个关于这个人的故事。 我在网站上加入了一个免责声明,说这个网站包含了无意义的文字和“事实”。我也在网页上放置了广告。 在本月底,我收到了广告收入的邮件。 这是我的证据:假消息可以通过虚假污染互联网赚钱。


内在自我订阅图形


可悲的是,我不是唯一一个有这个想法的人。 十年后,我们有一个 假消息行业数字错误信息。 Clickbait网站制造恶作剧,从广告赚钱,而所谓的hyperpartisan网站发布和传播谣言和阴谋论影响舆论。

这个行业是由多么容易创造支撑 社交机器人,虚拟账户由软件控制,看起来像真实的人,因此可以有真正的影响力。 在我的研究 实验室 发现了很多假基层运动的例子,也被称为 政治astroturfing.

对此,我们开发了 BotOrNot 检测社交机器人的工具。 这不是完美的,但是 准确的 揭开英国脱欧和反补贴运动的劝说运动。 使用BotOrNot,我们的同事发现一个 大部份 在线聊天关于2016选举是由机器人产生的。

创建信息泡泡

由于一系列复杂的社会,认知,经济和算法偏见,人类很容易受到数字错误信息的操纵。 其中有一些已经有了很好的理由:信任我们社交圈的信号,拒绝与我们的经验相矛盾的信息,当我们的物种适应了逃避掠食者的时候,我们就能很好地工作。 但在今天的网络缩小的情况下,与地球另一端的阴谋理论家建立的社交网络连接并不能帮助我的意见。

复制我们的朋友,取消那些有不同意见的人给我们回音室 偏振 研究人员可以高精确地判断你是否是 自由派或保守派 通过只看你的朋友。 网络结构如此 任何错误的信息在一个群体中几乎是瞬间传播的,如此隔离以至于没有传播到另一个群体。

在我们的泡沫里面,我们有选择地接触到符合我们信仰的信息。 这是最大限度地提高参与度的理想场景,但对于培养健康的怀疑态度是一个不利因素。 确认偏误 导致我们分享标题 甚至没有阅读 文章。

我们的实验室在我们自己的研究项目成为一个课题的时候有了一个私人的教训 恶意的错误信息活动 在2014美国中期选举之前。 当我们调查发生的事情时,我们发现有关我们的研究的虚假新闻报道主要由Twitter用户在一个党派回声室内共享,这个回声室是政治活跃用户的大型同质社区。 这些人很快转发,并不透露揭露信息。

病毒的必然性

我们的研究表明,鉴于我们的社交网络的结构和我们有限的关注,这是 必然 ,一些 模因 无论其质量如何,都会变成病毒式的。 即使个人倾向于分享更高质量的信息,整个网络在区分可靠信息和虚构信息方面也是无效的。 这有助于解释我们在野外观察到的所有病毒恶作剧。

注意力经济 照顾其余的部分:如果我们关注某个话题,就会产生更多关于这个话题的信息。 制作信息比传递实际真相更便宜。 捏造可以为每一个群体量身定做:保守派人士读到,教皇赞同特朗普,自由派人士宣读他赞同克林顿。 他没有.

Beholden算法

由于我们无法关注Feed中的所有帖子,因此算法会决定我们所看到的以及我们不知道的内容。 当今社交媒体平台使用的算法是为了优先考虑有吸引力的职位 - 我们可能会点击,反应和分享。 但是最近的分析发现有意误导网页至少得到了 尽可能多的在线分享 并作为真正的新闻反应。

这种对真理参与的算法偏向加强了我们的社会和认知偏见。 因此,当我们关注社交媒体上分享的链接时,我们倾向于访问更小, 更均匀 比我们进行搜索和访问最重要的结果的来源。

现有的研究表明,在一个回声室可以使人 更容易受骗 关于接受未经证实的谣言。 但是我们需要更多地了解不同的人对一个骗局的反应:一些人马上分享,其他人事实上先检查一下。

我们是 模拟社交网络 研究分享和事实核查之间的这种竞争。 我们希望帮助解决冲突的证据 当事实检查有助于停止恶作剧 从传播,当它不。 我们的初步结果表明,恶作剧信徒社区越孤立,恶作剧生存的时间越长。 再一次,这不仅是关于恶作剧本身,而且关于网络。

很多人都在试图弄清楚 这一切该怎么办。 根据马克·扎克伯格的最新消息 公告Facebook团队正在测试潜在的选择。 而一群大学生提出了一个简单的方法 标签共享链接 如“验证”或不。

至少在目前,一些解决方案仍然遥不可及。 例如,我们还不能教人工智能系统如何 辨别真相与虚假。 但是我们可以告诉排名算法给予更可靠的来源更高的优先级。

研究假消息的传播

如果我们能够更好地理解信息传播的恶劣程度,那么我们可以更有效地打击假新闻。 例如,如果机器人对许多虚假事件负责,我们可以把注意力集中在检测它们上。 或者,如果问题出现在回声室中,也许我们可以设计推荐系统,而不排除不同的观点。

为此,我们的实验室正在建立一个名为“ Hoaxy 追踪和可视化未经核实的索赔的传播和相应的社交媒体事实核查。 这将给我们真实世界的数据,我们可以通知我们的模拟社交网络。 然后,我们可以测试可能的方法来打击假新闻。

Hoaxy也可以向人们展示他们的意见是如何容易被在线信息操纵的 - 甚至有可能我们中的一些人在网上分享谎言。 Hoaxy将加入我们的一套工具 社交媒体观察站,这让任何人都可以看到如何在Twitter上传播模因。 将类似这样的工具与人类事实检查和社交媒体平台联系起来,可以使减少工作重复的工作更容易 SUPPORT 彼此。

我们必须投入资源研究这一现象。 我们需要掌握甲板上的计算机科学家,社会科学家,经济学家,记者和行业合作伙伴 一起工作 坚决抵制错误信息的传播。

谈话

关于作者

计算机科学与信息学教授Filippo Menczer; 复杂网络与系统研究中心主任, 印第安那大学布卢明顿分校

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍:

at InnerSelf 市场和亚马逊