抗击深度造假©盖蒂图片社

深度造假:对抗这种危险的人工智能使用

下一代人工智能正威胁着将网络造假提升到一个危险的新水平。我们会见了正在反击的专家。

现在是2020年11月2日,美国总统大选前夕,一段秘密录制的视频充斥着新闻。唐纳德·特朗普(Donald Trump)被拍到说他一直在“与俄国人交谈。相信我,我一直在做一些难以置信的间谍活动。真的难以置信”。尽管特朗普抗议他从未说过这些话,但事实证明这对选民产生了重大影响,竞争对手民主党候选人赢得了选举。

广告

但特朗普说的是实话,他没有说那些话。他的视频是由“深度造假”技术生成的,该技术使用复杂的人工智能(AI)创建视频和音频,模仿真实的人。这项技术已经在使用,如果不加以控制,我们可能会开始怀疑我们在网上看到和听到的一切。

阅读更多:

但deepfake的影响不仅仅体现在互联网上。假设一个罪犯“深深的伪造”了你姐姐的声音,打电话给你,要求你转账,因为“我有麻烦了,非常需要你的帮助”。你会相信吗?

谢天谢地,专家们越来越意识到深水假货所带来的危险。他们开始通过利用使这项技术如此令人信服的技术进行反击。

会更深

Deepfake可以用于各种欺骗手段,但它最常用于“换脸”,即将一个人的脸叠加到另一个人的脸上。在一次演示中,电影制作人乔丹·皮尔的嘴被移植到巴拉克·奥巴马的脸上,这样皮尔就可以让美国前总统说任何他想说的话。

Deeptrace据估计,目前网上流传的深度造假视频约有1万个。其中超过8000个是色情片段,明星的脸被叠加到色情明星的身体上。专家预测,一段假视频的出现只是时间问题,假视频称一名政客说了或做了一些改变选举进程的事情。

“deepfake”一词是“深度学习”和“假”的组合词。深度学习是人工智能的一种形式,在这种形式中,受人脑(称为神经网络)启发的算法通过处理大量数据来学习新技能。deepfake的核心是一种被称为“生成性对抗网络”或GANs的深度学习形式。在这里,两个神经网络相互作用,以创建逼真的视频和声音。其中一个网络,发电机,是创造性的一部分。这是大量的数据,如名人的脸的图像,并人工生成同一张脸。另一个网络,鉴别器,负责识别它从发生器接收到的图像是否是假的,并反馈图像的错误。当鉴别器拒绝视频时,生成器将重试。这种往复的过程会一直持续下去,直到生成器产生一些几乎与现实无法区分的东西。一个假货诞生了。

这种技术如此有效的一个原因是,它能够做一些人类思维做不到的事情:用数学方法描述图像或声音的问题所在。“我可以注意到,生成器在生成的图像中产生了错误的阴影,但我无法用数学来描述,”卡特·霍夫曼说,他是调节,一家利用这项技术开发人工语音的公司。“我不能只写下一个公式。但鉴别器可以建议我们无法写下公式的更正。”

英国制作了这段大卫·贝克汉姆说九种语言的视频

然而,深度造假背后的技术并不只是被用于邪恶的用途。Modulate的团队预计其人造声音将被用作游戏中的“声音皮肤”,使玩家能够扮演新的角色。与此同时,世界各地的大学团队正在为其他积极的目的开发这些技术。但是,制造深度造假的算法已经找到了一种方法,可以在网上存储库中共享计算机代码,业余开发者可以利用这些代码。只需要一台带有图形处理装置的笔记本电脑和一点软件技术,就能制造出可信的赝品。虽然其中一些尝试纯粹是为了好玩,但明星换脸色情的激增证明了被滥用的可能性,而且这种滥用预计将很快蔓延到其他领域。

“我们一直能够操纵视频,”伯克利,加利福尼亚大学数字取证专家Prof Hany Farid说。“好莱坞电影公司做到了这一点,代表政府秘密行事的个人做到了这一点。现在想象一下,一个普通Reddit用户可以制作特里萨·梅的假视频的场景——这有点令人担忧。”

反击

法里德非常担心一位世界领导人被深度造假,因此他和他的团队正在开发一种识别特定政客深度造假的系统。他们目前正在使用自动软件分析世界各地少数领导人的头部和面部动作,包括唐纳德·特朗普(Donald Trump)、特蕾莎·梅(Theresa May)和安格拉·默克尔(Angela Merkel),以识别独特的模式。然后可以分析其中一位领导人的疑似假视频,看看它是否与他们的真实行动相符。

法里德说:“世界领导人的面部表情和头部动作往往有独特的、可预测的模式。”“目前的深度造假系统很难模仿这些,因为它们专注于确保视频的每一帧看起来都是可信的。”

当单独的帧组合在一起时,并不能保证这个人会以他们自己微妙的方式移动,而法里德将利用这一特性来识别深度造假。他希望他的系统能在2019年底前投入使用,也就是在2020年美国总统大选之前。

Deepfake技术使BBC的Matthew Amroliwala成为通说多国语言的人©BBC
Deepfake技术让BBC的马修·阿姆罗里瓦拉得以通晓多种语言©BBC

与此同时,在阿姆斯特丹,Deeptrace正在开发一种深度伪造检测系统,该系统可以有效地自行启动这项技术。它使用了一个强大的鉴别算法(深度伪造技术的一个方面,当视频或图像偏离了现实)来寻找赝品。虽然用于生成深度假货的鉴别算法是为了制作愚弄普通人的视频,但Deeptrace的目标是创建一个足够复杂的鉴别器,能够发现深度假货中难以置信的细微缺陷,让它们比制作这些假货的人更有优势。

Deeptrace团队目前正在给它的识别器输入数千个假视频来完善系统。与原始技术没有编程生成真实人脸的方式大致相同,Deeptrace的鉴别器学会了如何从输入的数据中识别假货。

“任何用于处理图像的算法都会在图像上留下几何图案,”Deeptrace首席执行官乔治•帕特里尼(Giorgio Patrini)表示。“这些人工制品不会出现在相机的真实图像中,通常人眼也看不见。”

阅读更多:

这些模式不仅可以揭示视频是否是深度伪造的,还可以揭示视频是如何创建的。Patrini说:“不同的算法家族会留下不同的痕迹,所以有时我们可能会得到一些有关所使用的生成器算法的信息。”“追踪算法可以帮助我们识别,例如,人脸是如何被操纵的——仅仅是面部表情还是人的整个外表和身份?”

帕特里尼和他的商业伙伴弗朗西斯科·卡瓦利(Francesco Cavalli)认为,他们的技术最初的主要市场是媒体公司。帕特里尼说:“记者们想知道一段视频是真是假。”。但他们看到了更多的机会。帕特里尼说:“一旦人们意识到他们可以伪造电话和视频会议技术之类的东西,就会打开一个滥用的世界。”。

在Modulate,该团队已经意识到错误信息的风险,并在他们创建的声音文件中嵌入了声音“水印”,这样他们的工作就可以追溯到他们,希望能够阻止任何想要滥用这项技术的人。“这些水印是对一些声音频率的轻微调整,以一种你听不到的方式,”Huffman说。

Modulate希望与其他人工智能语音生成公司结成联盟,并建立一个自我监管系统,任何人都可以将声音文件上传到一个专门的网站,以确定它们是否带有公司水印。

但即使是那些与深度造假作斗争的人也认识到,他们的检测系统只是解决方案的一部分。即使深度假视频可以被发现是假的,它仍然可以在人们有机会验证它之前的几分钟内在社交网络上传播,可能会改变选举进程或毁掉职业生涯。因此,深度造假的出现或许要求我们转变思维方式,认识到眼见为实的现象不再总是存在。Patrini说:“我们真的需要改变自己,不再相信视频是事实。”“但这需要教育方面的努力,以及新闻中可能发生的灾难性事件,才能最终实现。”

广告
  • 本文首次发表于2019年6月