一个自动逻辑检查器可以解决假新闻问题?

一个自动逻辑检查器可以解决假新闻问题?

假新闻不是新闻 - 也就是说,这不是新闻,假新闻不是新近的启示。 但是,假新闻是一个棘手的问题 需要自行解决,它也是一个更大的问题的一部分。 话语 - 人类共同认识自身,塑造自己未来的过程,从根本上被打破了。 谈话

问题始于学校辩论,一个双赢最终胜利的真相的胜利。 当然,现实世界更为复杂,在任何两个极端之间都有许多微妙之处。 然而,这种模式一直存在于复杂问题的国际政治中 简化为soundbites。 在观众中激起热烈情绪的材料传播的速度要比考虑周全,证据基础的论点更为宽广。

对于当选的领导人来说,掉头被视为最终的背叛,但对于科学家来说,面对更好的证据而改变观点是最高诚信的象征。 一个警觉的读者会认识到这一点,但很多人不知道,也不知情和愤怒。

然而,造成和传播这些问题的社会和数字技术可能反过来解决这个问题。

自动检查

想象一下,如果你愿意的话,一个拼写检查应用程序的想法:那种熟悉的波浪下划线显示不好的逻辑或冲突的证据。

在您反对任何索赔可能被标记为矛盾的信息或者信仰的选择是个人信息之前,请放心,逻辑检查器的设置可以允许这样做。 右键单击,拒绝更正。 请注意,检查者现在知道你必须相信几种选择之一。 证据是捏造的,解释是错误的,等等。

尽管如此,只要至少有一种替代方法与之前教授检查者的所有其他信念相兼容,您就可以成功地消除扭曲的下划线。 如果没有,那么你会得到另一个错误信息。 如果你的立场是真实的,那么事实证明,你最终将被迫完全拒绝科学的方法,或者更有效地去对付你的观点中的不一致。


从InnerSelf获取最新信息


是否有可能用一个没有情绪的机器而不是另一个人来争取自我呢? 显示你的信仰与自己矛盾的地方肯定会成为一个非常有价值的学习工具。

这个虚构的检查者的目的不是成为真相和虚假的最终仲裁者,而是在一个信息超载的世界中,比你自己能够更快地追踪相互冲突的证据和反驳。 事实上,这与今天的互联网搜索没有太大的距离,而是延伸到了语义网络,在语义网络中,知识被表示为结构化数据而不是自由文本。 未来的部分是文本处理,但这不是系统必不可少的:用户可以从众包的数据库手动选择想法,信仰和要求 - 或者自己输入 - 而不是电脑自动进行。 还有 众多 例子 of 试验 系统 喜欢 这个 已经建成。

从这里到那里

那么为什么我们不使用自动或众包逻辑检查? 事实证明,建立人员共同创造支持数据比建立技术困难。 成功的网上社区确实存在,虽然它们是由自己的议程塑造的。 Facebook必须是世界上最大的社区数据库,但创建过程是由算法形成的,最终目的是通过尽可能长时间地保持用户的参与来产生广告收入。

也许更有趣的是 堆栈交换 社区提出并回答关于特定主题的问题。 因为维护一个知名的信息来源是模型的组成部分,用户交互是通过投票和信誉得分来指导的。 尽管如此,Stack Exchange为此做出了妥协,最值得注意的是 有效禁止主观问题,这是对我们周围世界的完整理解的基本部分。

最有趣的是维基百科,尽管它 缺陷 成功地建立了一个以知识记录为目的的慈善社区。 回到我们虚构的逻辑检查器,建立在维基百科上的两个项目已经采取了必要的结构化信息支持它的重要步骤: 维基数据 有一天可以成为上面提到的众包的数据库 DBpedia中 尝试从现有文章中自动提取数据。

这是我们所有问题的答案吗? 当然不是。 这种类型的工具不会完全消除潜在的权力结构,包括但不限于在线社区商业模式,这些权力结构有助于我们今天的形势。 但是,这些工具有可能改善我们彼此沟通的方式,这不是一件坏事。

关于作者

Crispin Cooper,研究助理, 卡迪夫大学

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍

{amazonWS:searchindex =图书;关键字=假新闻; maxresults = 3}

enafarZH-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

按照InnerSelf

Facebook的图标Twitter的图标RSS图标

通过电子邮件获取最新的

{emailcloak = OFF}