编者按:前不久,有人用人工智能技术来制造虚假的色情内容引发了轩然大波。现在,也有公司开始利用人工智能技术来识别这些虚假的内容了。一场关于人工智能的矛与盾故事开始展开,到底孰强孰弱?文章发表在《连线》杂志。
面部识别和机器学习程序已经正式被普及,现在,互联网也在使用这种技术来制作色情内容。正如Motherboard率先报道的,人们现在正在制作人工智能辅助的“换脸”色情片,通常是一个明星的脸被映射到一个色情明星的身体上,比如盖尔·加朵(Gal Gadot)就深受其害,在一个视频片段她被认为和她的继兄在一起“睡觉”。怎么杜绝这些所谓的色情“deepfakes”让Reddit、Pornhub和其他社区头疼不已,但GIF动图托管公司Gfycat认为它找到了更好的解决方案。
目前,大多数平台都依赖于关键词过滤以及用户手动标记内容来打击deepfakes。Gfycat表示,他们已经找到了一种方法,可以训练人工智能来识别假视频。这项技术建立在 Gfycat 已经使用的一些工具上,这些工具通常用于在其平台上索引GIF动图。这项新技术展示了科技平台如何在未来对抗虚假的视觉内容的。随着Snapchat等平台旨在将众包视频带到新闻行业,这可能会变得越来越重要。
Gfycat拥有至少2亿活跃的日活跃用户,它希望能推出一种更全面的方法,将deepfakes从平台中剔除掉,而不是像Reddit、Pornhub和其他社区那样。Mashable此前报道称,Pornhub并未能从其网站上移除大量的deepfakes视频,其中一些视频的浏览量高达数百万。(文章发表后,这些视频被删除了)。本月早些时候,Reddit封禁了大量关于“deepfakes”的社区,但一些相关的子网站——比如r/deepfakesrequest和r/deepfaux——并没有引起Reddit的关注,直到《连线》杂志的这篇报道发布后,它们才被封禁。
这些努力不应该被忽视。但它们也显示了人工监控一个庞大的互联网平台有多么困难。特别是当计算机能够识别出deepfakes时,就不需要人来做了。
AI开始工作了
Gfycat的人工智能方法利用了它已经开发的两种工具,都是用猫科动物命名的:Angora项目和Maru项目。当用户上传一张低质量的GIF动图时,比如是关于泰勒·斯威夫特(Taylor Swift )的内容到Gfycat,Angora项目可以在网页上搜索分辨率更高的GIF来替代它。换句话说,它可以找到同样的片段,并上传一个更好的版本。
现在,即使你不给你的剪辑贴上“泰勒·斯威夫特”的标签。这不是问题。据称,Maru项目可以区分不同的人脸,并会自动给GIF加上斯威夫特的名字。从Gfycat的角度来看,这是有意义的——它希望将用户上传到平台上的数百万个GIF编入索引。
现在,在对抗deepfakes上,它们也有了用武之地。由业余爱好者创造的大多数的deepfakes都不是完全可信的。如果你仔细看,这些画面并不能完全吻合;在下面这段视频(为方便观看,转成了GIF)中,唐纳德·特朗普(Donald Trump)的脸并没有完全覆盖安吉拉·默克尔(Angela Merkel)的。你的大脑做了一些工作,填补了技术无法将一个人的脸变成另一个人的缺口。
但Maru项目并不像人类的大脑那么宽容。当Gfycat的工程师们在人工智能工具中运行deepfakes的时候,它会注册一个类似于尼古拉斯·凯奇(Nicolas Cage)的剪辑,但是不足以发出一个正面的匹配,因为脸部在每一帧中都没有完美的呈现。使用 Maru 是 Gfycat 来识别deepfakes的一种方法——当GIF只是在某些部分与名人相似时,它就会发现其中的问题。
当然,Maru很可能无法阻止所有的deepfakes。随着它们变得更加复杂, 未来可能会有更多的麻烦。有时,deepfakes伪造的并不是名人的脸,而是一个普通人的面孔——甚至是只有创作者本人所知道的人。为了对抗这种变化,Gfycat开发了一种类似于Angora项目的屏蔽技术。
如果Gfycat怀疑一个视频被修改为了别人的脸(如果 Maru 没有正面地说这是泰勒·斯威夫特的脸),该公司就可以“屏蔽”受害者的脸,然后搜索身体和背景是否出现在互联网上的其他地方。举个例子,在一段将别人的脸置于特朗普身体的视频中,人工智能可以搜索整个互联网,并找到其原来的国情咨文视频。如果新的GIF图片和源文件不匹配,人工智能就可以断定视频已经被修改了。
Gfycat计划利用它的屏蔽技术不仅仅只来屏蔽更多的人脸,而且用于检测不同类型的虚假内容,如假的天气预报或科学视频。“Gfycat一直以来都非常依赖人工智能来分类、管理和调节内容。人工智能领域的创新加速步伐有可能极大地改变我们的世界,我们将继续把我们的技术应用于这些新的发展,”Gfycat的首席执行官理查德·拉巴特(Richard Rabbat)在一份声明中说。
并非万无一失
Gfycat的技术至少在一个deepfakes的场景中是行不通的:在互联网上其他地方都不存在的面部和身体。比如说,有人直接拍下性爱视频,然后将其中的主角换成其他人的脸。如果这里面没有一个人是名人,而且这段视频在其他地方也无法找到,那么Maru或Angora就不可能知道这些内容是否被修改过了。
目前看来,这是一个相当不可能的场景,因为制作一个“deepfake”需要访问一个人的视频和照片库。但也不难想象,以前的恋人会利用手机上之前从未公开过的视频来制作相关的视频。甚至对于那些以色情明星或名人为主角的deepfake,有时人工智能也不确定到底发生了什么,这就是为什么Gfycat雇佣了人类审核员来帮忙的原因。该公司还使用其他的元数据——比如分享的地方或者上传的数据——来确定GIF动图是否是一个deepfake。
“我不能阻止你制造虚假内容,但我可以让制造它变得非常困难,而且非常耗时。”
——哈夫·法里德(Hany Farid),达特茅斯学院
此外,并不是所有的deepfake都是恶意的。正如电子前沿基金会(Electronic Frontier Foundation)在一篇博客文章中指出的那样,像“默克尔(Merke)/特朗普”这样的例子只是政治评论或讽刺。还有其他合法的理由使用这项技术,比如匿名化需要身份保护的人,或者创建经过修改的色情作品。
尽管如此,也很容易看出为什么这么多人会觉得deepfake令人苦恼。它们代表了一个未来的开始,在这个未来,我们不可能知道一段视频是真实的还是假的,这可能会对宣传内容产生广泛影响。在2016年总统大选期间,俄罗斯在2016年总统竞选期间用假机器人淹没了Twitter,在2020年大选期间, 候选人也许会面临着同样的场景,这个时候,也会有更多的虚假视频做同样的事情。
这是一场持久战
虽然Gfycat目前提供了一个潜在的解决方案,但是,deepfake 创作者学会如何规避它的安全措施只是时间问题。随之而来的军备竞赛可能需要数年时间才能结束。
“我们离拥有刑侦技术还有几十年的时间,你可以在Pornhub或Reddit上发布信息,最终从假象中分辨出真假,”达特茅斯学院的计算机科学教授哈夫·法里德说,他专门从事数字取证、图像分析和人类感知等领域的研究。“如果你真的想骗过这个系统,你就要开始建立更深层次的破解刑侦系统的方法了。”
关键是要有许多不同的协议来检测欺骗性的图像,这样就能让创造deepfake变得很难。“我不能阻止你制造虚假内容,但我可以让制造它变得非常困难,而且非常耗时,”法里德说。
就目前而言,Gfycat似乎是唯一一个使用人工智能来调节其网站上deepfake的平台。Pornhub和Discord都告诉我,它们没有使用人工智能来识别deepfake。Reddit拒绝透露是否有这样的技术;其一位发言人表示,不愿透露其平台是如何做的是有原因的,因为这样做可能会鼓励不良行为者试图阻止这些努力。Twitter没有立即回复记者的置评请求。
每天有数百万的视频被上传到网上,每分钟大约有300分钟的视频被发布到YouTube上。我们不仅仅只需要依靠人来识别出哪些视频是不真实的,还需要计算机来帮忙。
原文链接:https://www.wired.com/story/gfycat-artificial-intelligence-deepfakes/