克隆某人的声音比以往任何时候都容易。 D-Keine/iStock 来自 Getty Images
您结束了漫长的一天工作后刚回到家,正准备坐下来吃晚饭,突然您的手机开始嗡嗡作响。 另一端是一位亲人,也许是父母、孩子或儿时的朋友,请求您立即给他们汇款。
你问他们问题,试图理解。 他们的回答有些不对劲,要么含糊不清,要么不合时宜,有时会有一种奇怪的延迟,就好像他们的思考有点太慢了。 然而,您可以确定这绝对是您所爱的人在说话:您听到的是他们的声音,来电显示显示的是他们的号码。 将这种陌生感归咎于他们的恐慌,您尽职尽责地将钱汇入他们提供给您的银行账户。
第二天,您给他们回电话以确保一切正常。 您所爱的人不知道您在说什么。 那是因为他们从来没有给你打电话——你被技术欺骗了:一个声音深度伪造。 成千上万的人被 2022年就这样被骗了.
克隆一个人的声音的能力越来越接近任何拥有计算机的人。
As 计算机安全 研究人员,我们看到深度学习算法、音频编辑和工程以及合成语音生成方面的持续进步意味着越来越有可能 令人信服地模拟一个人的声音.
更糟糕的是,像 ChatGPT 这样的聊天机器人开始生成具有自适应实时响应的逼真脚本。 经过 将这些技术与语音生成相结合,deepfake 从静态录音变成了可以令人信服地进行电话交谈的栩栩如生的化身。
克隆声音
制作引人入胜的高质量 deepfake,无论是视频还是音频,都不是一件容易的事。 它需要丰富的艺术和技术技能、强大的硬件和相当大的目标语音样本。
有越来越多的服务提供给 收费制作中等到高质量的语音克隆,一些语音deepfake工具需要一个样本 只有一分钟长, 甚至 几秒钟, 以产生足以令人信服地愚弄某人的声音克隆。 然而,要说服亲人——例如,在冒充骗局中使用——可能需要大得多的样本。
研究人员已经能够在短短五秒钟的录音时间内克隆出声音。
防止诈骗和虚假信息
尽管如此,我们在 DeFake 项目 罗切斯特理工学院、密西西比大学和密歇根州立大学的研究人员以及其他研究人员正在努力检测视频和音频深度造假,并限制它们造成的危害。 您还可以采取一些直接的日常行动来保护自己。
对于初学者来说, 语音网络钓鱼,或“网络钓鱼”,像上面描述的那样的骗局是你在日常生活中最有可能遇到的语音深度造假,无论是在工作中还是在家里。 2019年,一个 能源公司被骗走 243,000 美元 当不法分子模拟其母公司老板的声音命令员工向供应商转账时。 2022年,人们 诈骗了大约 11 万美元 通过模拟声音,包括亲密的人际关系。
你可以做什么?
请注意意外来电,即使是来自您熟悉的人。 这并不是说您需要安排每次通话,但至少提前发送电子邮件或短信会有所帮助。 另外,不要依赖来电显示,因为 这也可以被伪造. 例如,如果您接到声称代表您银行的人打来的电话,请挂断电话并直接致电银行以确认电话的合法性。 请务必使用您记下、保存在您的联系人列表中或您可以在 Google 上找到的号码。
此外,请注意您的个人身份信息,例如您的社会安全号码、家庭住址、出生日期、电话号码、中间名,甚至您的孩子和宠物的名字。 诈骗者可以使用此信息冒充您到银行、房地产经纪人和其他人那里,在让您破产或破坏您的信用的同时中饱私囊。
这是另一条建议:了解你自己。 具体来说,了解你的智力和情感偏见和弱点。 总的来说,这是很好的生活建议,但它是保护自己免受操纵的关键。 诈骗者通常会设法弄清楚您的财务焦虑、政治依恋或其他倾向,然后利用这些倾向,无论这些是什么。
这种警觉性也是对使用语音深度伪造的虚假信息的有效防御。 Deepfakes 可以用来利用你的 确认偏误,或者你倾向于相信某人的什么。
如果你听到一个重要人物,无论是来自你的社区还是政府,说了一些对他们来说似乎非常反常的话或者证实了你对他们最坏的怀疑的话,你最好保持警惕。
作者简介
马修·赖特,计算安全学教授, 罗彻斯特理工学院 和 克里斯托弗·施瓦茨, 计算安全博士后研究员, 罗彻斯特理工学院