这张脸只是一个计算机位组件吗? PHOTOCREO Michal Bednarek / Shutterstock.com
当人工智能系统开始变得富有创造力时,他们就可以创造出伟大的东西 - 而且可怕。 举一个例如,让人工智能的程序 网络用户撰写音乐 以及一个 虚拟约翰塞巴斯蒂安巴赫 通过在一个程序中输入注释来生成类似巴赫的和声来匹配它们。
由Google运营,应用程序 德鲁 大 赞美 因为具有开创性和玩乐的乐趣。 它也吸引了 批评并且引起了对人工智能危险的担忧。
我的研究如何 新兴技术影响着人们的生活 告诉我,这些问题超出了公认的大问题 是否算法 真的可以 创造音乐 或一般的艺术。 有些抱怨似乎很小,但实际上并非如此,就像谷歌人工智能的观察结果一样 打破基本规则 音乐作曲。
事实上,让计算机模仿真实人的行为的努力可能会令人困惑并且可能有害。
模仿技术
谷歌的节目分析了巴赫音乐作品的306中的音符,发现了旋律和提供和声的音符之间的关系。 由于巴赫遵循严格的组成规则,该计划有效地学习了这些规则,因此当用户提供自己的笔记时它可以应用它们。
{youtube}XBfYPp6KF2g{/youtube}
巴赫应用程序本身是新的,但基础技术不是。 训练的算法 识别模式 和做 概率决定 已经存在了很长时间。 其中一些算法非常复杂,以至于人们 不要总是明白 他们如何做出决定或产生特定的结果。
人工智能系统并不完美 - 许多都依赖于此 数据不具代表性 整个人口,或者是 受人类偏见的影响。 这还不完全清楚 谁可能有法律责任 当AI系统出错或导致问题时。
然而,现在,人工智能技术已经发展到足以能够逼近个人的写作或说话风格,甚至面部表情。 这并不总是坏事:一个相当简单的AI给了斯蒂芬霍金 沟通能力 通过预测他将使用最多的单词,更有效地与他人合作。
模仿人类声音的更复杂的节目 帮助残疾人 - 但也可以用来欺骗听众。 例如,制造商 琴鸟一个模仿语音的节目,发布了一个 模拟对话 巴拉克奥巴马,唐纳德特朗普和希拉里克林顿之间。 这可能听起来很真实,但这种交流从未发生过。
从好到坏
2月2019,非盈利公司OpenAI创建了一个生成文本的程序 与文本几乎无法区分 由人写的。 它可以“写”一种风格的演讲 约翰·F·肯尼迪,JRR托尔金在“指环王“还是学生写作 关于美国内战的学校作业.
OpenAI软件生成的文本非常可信,公司已经选择了 不要释放 程序本身。
类似的技术可以模拟照片和视频。 例如,在2018早期,演员兼电影制作人乔丹·皮尔创作了一段视频,该视频似乎显示了美国前总统巴拉克·奥巴马所说的话 奥巴马从未真正说过的话 警告公众这些技术带来的危险。
{youtube}cQ54GDm1eL0{/youtube}
在早期的2019中,a 假裸照 美国众议员Alexandria Ocasio-Cortez在网上流传。 制作视频, 通常被称为 ”deepfakes,“预计将是 日益 用过的 在竞选活动中。
国会议员 已开始研究这个问题 在2020选举之前。 美国国防部正在教导公众 如何发现篡改视频 和音频。 新闻机构喜欢 路透社 正在开始训练记者发现深水伪造。
但是,在我看来,一个更大的问题依然存在:当AI技术变得更加复杂时,用户可能无法快速学习以区分假内容。 例如,随着公众开始意识到深度伪造,人工智能已被用于更高级的欺骗。 现在有可以生成的程序 假脸 和 假数字指纹,有效地创建制造整个人所需的信息 - 至少在公司或政府记录中。
机器不断学习
目前,这些技术中存在足够的潜在错误,使人们有机会检测数字制作。 谷歌的巴赫作曲家 犯了一些错误 专家可以检测到。 例如,当我尝试它时,程序允许我进入 平行的五分之一,巴赫的音乐间隔 刻意避免。 该应用程序也 打破了音乐规则 通过在错误的键中协调旋律来对抗。 同样,OpenAI的文本生成程序偶尔会写出像“火灾发生在水下“在他们的背景下没有任何意义。
随着开发人员对他们的创作工作,这些错误将变得更加罕见。 实际上,人工智能技术将不断发展和学习。 随着AI计划的帮助,改进的绩效有可能带来许多社会福利 - 包括更好的医疗保健 使医学实践民主化.
让研究人员和公司自由探索,以便从人工智能系统中寻求这些积极的成就,意味着开辟更多先进方法来制造欺骗和其他社会问题的风险。 严重限制AI研究可以 遏制这种进步。 但是提供有益的技术 成长的空间 不小的代价 - 滥用的可能性,无论是制作不准确的“巴赫式”音乐还是欺骗数百万,都可能以人们无法预料的方式成长。
关于作者
Ana Santos Rutschman,法律助理教授, 圣路易斯大学
相关书籍
at InnerSelf 市场和亚马逊