人工智能生成照片?

即使你认为自己擅长分析面孔, 研究表明, 许多人无法可靠地区分真实面孔的照片和计算机生成的图像。 由于计算机系统可以为不存在的人创建逼真的照片,因此这尤其成问题。

最近,一张带有计算机生成的个人资料图片的虚假 LinkedIn 个人资料上了新闻,因为它 与美国官员和其他有影响力的人成功建立联系 例如,在网络平台上。 反情报专家甚至表示,间谍通常会用此类图片创建幻影档案,以 通过社交媒体关注外国目标.

这些深度造假在日常文化中越来越普遍,这意味着人们应该更加了解它们是如何被用于营销、广告和社交媒体的。 这些图像还被用于恶意目的,例如政治宣传、间谍活动和信息战。

制作它们涉及一种叫做深度神经网络的东西,这是一种模仿大脑学习方式的计算机系统。 这是通过将其暴露于越来越大的真实面孔数据集来“训练”的。

事实上,两个深度神经网络相互对抗,竞争产生最逼真的图像。 因此,最终产品被称为 GAN 图像,其中 GAN 代表生成对抗网络。 该过程生成新图像,这些图像在统计上与训练图像无法区分。


内在自我订阅图形


在我们发表在 iScience 上的研究中,我们表明,未能将这些人造面孔与真实面孔区分开来会对我们的在线行为产生影响。 我们的研究表明,虚假图像可能会削弱我们对他人的信任,并深刻改变我们在线交流的方式。

我和我的同事发现,人们认为 GAN 人脸比真实人脸的真实照片更真实。 虽然还不清楚这是为什么,但这一发现确实 突出技术的最新进展 用于生成人工图像。

我们还发现了与吸引力的有趣联系:被评为不那么有吸引力的面孔也被评为更真实。 不那么有吸引力的面孔可能被认为更典型和 典型面孔可作为参考 对所有面孔进行评估。 因此,这些 GAN 人脸看起来会更真实,因为它们更类似于人们从日常生活中建立的心理模板。

但是,将这些人造面孔视为真实的也可能会影响我们对陌生人圈子的普遍信任程度——这个概念被称为“社会信任”。

我们经常对我们看到的面孔读得太多,而 我们形成的第一印象指导我们的社交互动. 在构成我们最新研究一部分的第二个实验中,我们发现人们更容易相信他们之前判断为真实的面孔所传达的信息,即使它们是人工生成的。

人们更加信任他们认为真实的面孔也就不足为奇了。 但我们发现,一旦人们被告知在线互动中可能存在人造面孔,信任就会受到侵蚀。 然后,他们总体上表现出较低的信任度——与面孔是否真实无关。

这个结果在某些方面可以被认为是有用的,因为它使人们在假冒用户可能操作的环境中更加怀疑。 然而,从另一个角度来看,它可能会逐渐侵蚀我们沟通方式的本质。

一般来说,我们倾向于操作 默认假设其他人基本上是诚实和值得信赖的. 虚假个人资料和其他人工在线内容的增长提出了一个问题,即它们的存在以及我们对它们的了解能在多大程度上改变这种“默认真相”状态,最终削弱社会信任。

改变我们的默认值

过渡到一个真实与非真实无法区分的世界,也可能将文化景观从主要是真实的转变为主要是虚假和欺骗性的。

如果我们经常质疑我们在网上体验的真实性,可能需要我们重新部署我们的精神努力,从处理消息本身到处理信使的身份。 换句话说,高度逼真但人工的在线内容的广泛使用可能需要我们以不同的方式思考——以我们没有预料到的方式。

在心理学中,我们使用一个称为“现实监控”的术语来描述我们如何正确识别某些事物是来自外部世界还是来自我们的大脑。 技术的进步可以产生虚假但高度逼真的面孔、图像和视频通话,这意味着现实监控必须基于信息而不是我们自己的判断。 它还呼吁更广泛地讨论人类是否仍然能够承受默认真理的后果。

人们在评估数字面孔时更加挑剔,这一点至关重要。 这可能包括使用反向图像搜索来检查照片是否真实,警惕个人信息很少或关注者众多的社交媒体资料,以及意识到深度造假技术可能被用于邪恶目的。

该领域的下一个前沿领域应该是改进检测假数字面孔的算法。 然后这些可以嵌入到社交媒体平台中,以帮助我们在新联系人的面孔时区分真假。

关于作者

马诺斯·萨基里斯,心理学教授,情感政治中心主任, 伦敦皇家霍洛威大学

本文重新发表 谈话 根据知识共享许可。 阅读 原创文章.