如何知道在线讨论是否会变得令人讨厌

研究人员创建了一个模型来预测哪些民间在线对话可能会出现转机和脱轨。

在分析了维基百科编辑之间的数百次交流之后,研究人员开发了一个计算机程序,在对话开始时用参与者的语言扫描警告标志 - 例如重复,直接询问或使用“你”这个词 - 来预测哪个最初民间谈话会出错。 (Edtor的注释:有关在线测验的信息,请参阅本文的结尾。)(“猜猜哪个会话会出错”在线测验: http://awry.infosci.cornell.edu/)

研究发现,早期的交流包括问候,表达感激之情,诸如“似乎”的对冲,以及“我”和“我们”这两个词更可能保持文明。

“每天都有数百万次这样的讨论,你无法对所有人进行现场监控。 基于这一发现的系统可能有助于人类主持人更好地引导他们的注意力,“康奈尔大学信息科学助理教授,合着者克里斯蒂安·达内斯库 - 尼库列斯库 - 米齐尔说。 论文.

“作为人类,我们对谈话是否即将出错感到直觉,但这通常只是一种怀疑。 我们不能在100的百分比时间内做到这一点。 我们想知道我们是否可以建立复制甚至超越这种直觉的系统,“Danescu-Niculescu-Mizil说。

计算机模型也考虑了Google的Perspective,这是一种用于评估“毒性”的机器学习工具,在65百分比的时间内是正确的。 人类在一定时间内正确猜测了72的百分比。


内在自我订阅图形


人们可以测试自己的能力来猜测哪些对话会在在线测验中脱轨。

该研究分析了1,270对话,这些对话是从民间开始但堕落为人身攻击,从50百万次维基百科“谈话”页面的16百万次对话中剔除,编辑们讨论文章或其他问题。 他们成对地检查了交换,比较了每个在同一个主题上成功的会话,所以结果并没有受到政治等敏感主题的影响。

研究人员希望这种模式可用于拯救风险对话并改善在线对话,而不是禁止特定用户或审查某些主题。 一些在线海报,例如非英语母语者,可能没有意识到他们可能被认为具有侵略性,并且从这样的系统中轻推可以帮助他们自我调整。

“如果我有找到人身攻击的工具,那已经太晚了,因为攻击已经发生,人们已经看到了它,”共同作者,康奈尔大学博士生Jonathan P. Chang说。 “但如果你理解这次谈话朝着一个糟糕的方向前进并采取行动,那么这可能会让这个地方更加欢迎。”

该论文与Jigsaw和维基媒体基金会的其他合作者共同撰写,将成为澳大利亚墨尔本计算语言学协会年会(7月2018)的一部分。

*****

猜猜哪个谈话会出错!

在线测验说明:

在此任务中,您将看到15对话对。 对于每个对话,您只能看到对话中的前两个评论。 你的工作就是根据这些对话启动者猜测哪个对话更有可能 最终导致人身攻击 来自两个初始用户之一。 

回答完每个问题后,您将立即得到答案:答案是正确的(用绿色表示)还是不正确用红色表示。

更多详情:

在做出猜测时,您应该使用以下人员攻击定义作为参考:

人身攻击 是对某个人/团体或对该团体/团体的行为和/或工作的粗鲁,侮辱或不尊重的评论。

请记住,您没有在评论中寻找人身攻击 如图。 相反,你应该使用你的社会动态直觉来决定哪个交换更有可能导致其中一个参与者最终发布个人攻击(你没有显示)。 

有时,看起来似乎没有引用可能导致攻击,或者两者似乎都同样可能。 但是,请记住,源对话已经被人类注释,并且确实会导致人身攻击。 尽力'恢复'现有的标签! 

这不是一项容易的任务,可能需要几分钟才能回答每个问题。 由于这是一项艰巨的任务,前三个问题是“热身”问题,不会影响你的分数; 他们在那里帮助您“校准”您对哪些因素可能预示未来攻击的感觉。 但要记住, 您的任务是尽可能多地恢复标签

由于任务的性质,其中一些评论可能包含令人反感的内容。 我们很抱歉。

点击这里进行在线测验。

Sumber: 美国康奈尔大学

相关书籍

at InnerSelf 市场和亚马逊