我们的道德如何可能在政治上任何东西的极化

当有关我们最喜欢的政治家的不当行为的消息断裂的时候,对方不可避免地会说我们手上有丑闻。 我们喜欢认为,我们对逻辑的优越把握是使我们能够推翻和拒绝对方关切的东西。 谈话

一系列的三项研究 我最近发表的建议,这样的决定不仅仅是推理的结果。 相反,感觉到对政治对手的道德厌恶迫使我们走向帮助我们的团队“获胜”的立场。即使这意味着采取我们不同意的立场,情况也是如此。

简而言之,这就是效果:假设你在选举日走进冰淇淋店。 你发现店里充斥着你反对的总统候选人的支持者,你发现这个候选人的支持者在道德上是可恶的。 当你到达线的前端,工人告诉你所有的其他客户刚刚订购红色天鹅绒 - 通常是你最喜欢的味道。

我的研究表明,当被要求下单的时候,你可能会觉得有一种冲动,就是偏离你最喜欢的风格,而不喜欢那种你自己喜欢的风格。

不管他们想什么,反而思考

为了理解这里的“敦促”是什么意思,这有助于理解Stroop效应。 在这个经典的实验中,人们看到一个单词,并被要求命名单词的打印颜色。 当颜色和单词匹配 - 例如红色印刷的红色 - 任务是容易的。 当颜色和单词不一致时 - 例如用蓝色打印的“红色” - 任务更难。 人们感到冲动,或“敦促”,意外地读这个词。 这种要求干扰了颜色命名的任务,简单的任务变得异常困难。


内在自我订阅图形


乔纳森·海德(Jonathan Haidt)提出的道德理论表明了道德 “盲目”的人有其他的观点 这样即使考虑到对方的意见也是忌讳的。 考虑到这个理论,我认为道德规避可能是一个非生产性的冲动的社会事业,类似于在Stroop任务中所经历的冲动。 也就是说,正如Stroop任务中的人们感到错误地阅读这个词的冲动一样,我认为强烈的道德信念可能会使人们感到冲动,做出最大化与他们认为有不同道德的人的距离的决定。

测试如何工作

以下是我测试它的方法:

我首先让人们做了几次Stroop试验,让他们意识到什么是想要犯错误的感觉。

接下来,我问了人们六个相当琐碎的消费者选择问题,比如偏爱汽车颜色(森林绿色与银色)或真空品牌(胡佛与恶魔)。

这是一个转折点:在回答每个问题之后,参与者被告知大多数其他参与者如何回答相同的问题。 这个多数群体的身份是随机的。 它可以是每个人都属于的团体(例如美国人),也可以是一个更具政治色彩的团体(例如特朗普支持者,克林顿支持者或白人至上主义者)。

最后,我再次向参与者展示了一系列问题,并要求他们第二次简单地陈述他们以前的答案。 我还要求参与者评估他们改变答案的冲动 - 类似于在Stroop测试中发生错误的冲动。

这应该是直截了当的。

不要求参与者评估多数答案或以任何方式重新考虑他们的观点。 尽管如此,就像Stroop任务中的干涉一样,知道大多数人的反应会让人感到一个错误的答案。

当参与者属于多数人群体时,他们曾经强烈要求犯错,因为他们以前不同意大多数人的观点。 尽管刚才被要求重复他们刚才所说的一个相当微不足道的意见问题,但他们却感到一种顺从的冲动。

同样,当参与者对多数人群体有强烈的道德厌恶感时,他们在与群体达成一致时,都表示强烈要求犯错误。 换句话说,参与者的初步反应现在在道德上被“污染”了,即使对于这些相当无关紧要的问题,他们也觉得要放弃这种反应,并将自己与对手分开。 这个要求再次表明了他们的意见,这个微不足道的任务稍微有些困难。

“蜂巢记”和被动效应

就像美国一样 现在思想上更加分裂了 这些结果比历史上的其他任何一点都显示出政治两极背后的心理学的两个方面。

首先,人们可能会认为他们能够运用他们的推理来决定最低工资增长是否会产生积极或消极的后果。 然而,在对这个问题进行审议之前,道德冲动可能已经推动人们反对他们的反对者。

其次,这里观察到的效果可能是被动的过程。 参与者不希望在Stroop任务中出现错误,他们可能不希望在学习中反对自己的观点。 这种冲动恰恰是由道德驱动的心理学引起的。

这些结果表明,努力使边缘附近的人可能会置之不理。 更乐观的解释是,两极分化可能源于无意的党派冲动。 虽然不缺乏导致两极分化的道德问题,但两极分化并不一定是由有关方面的恶意造成的。

关于作者

兰迪斯坦,营销助理教授, 加州州立理工大学,波莫纳

这篇文章最初发表于 谈话。 阅读 原创文章.

相关书籍

at InnerSelf 市场和亚马逊