加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 站长资讯 > 动态 > 正文

互联网公司如何准备应对深造未来

发布时间:2019-12-04 23:24:41 所属栏目:动态 来源:站长网
导读:Deepfakes(一个通常描述使用尖端人工智能技术拍摄的视频的术语)已经挑战了我们对真实与非真实的假设。科技公司现在正试图与之抗争。 凯德梅斯(Cade Metz) 几个月前,Google雇用了数十名演员坐在一张桌子旁,站在走廊上,然后沿着街对着摄像机聊天。 然后,

Deepfakes(一个通常描述使用尖端人工智能技术拍摄的视频的术语)已经挑战了我们对真实与非真实的假设。科技公司现在正试图与之抗争。

凯德·梅斯(Cade Metz)

几个月前,Google雇用了数十名演员坐在一张桌子旁,站在走廊上,然后沿着街对着摄像机聊天。

互联网公司如何准备应对深造未来

然后,公司的研究人员使用一种新型的人工智能软件交换了演员的面孔。走路的人突然在桌子旁。曾经在走廊上的演员看上去就像在大街上一样。男人的脸贴在女人的身上。女人的脸放在男人的身上。随着时间的推移,研究人员创建了数百个所谓的Deepfake视频。

通过创建这些数字操作的视频,谷歌的科学家相信他们正在学习如何发现伪造品,研究人员和立法者担心,这种伪造品可能会成为在2020年总统大选前传播虚假信息的一种新的,阴险的方法。

对于像Google这样的互联网公司来说,找到能够发现深度欺诈的工具已变得迫在眉睫。如果有人想散布虚假视频,那么Google的YouTube或Facebook的社交媒体平台将是最好的选择。

想象一下假冒的参议员伊丽莎白·沃伦(Elizabeth Warren),他与真实事物几乎没有区别,他们在经过篡改的视频中进行了一场激战。或者是假的唐纳德·特朗普总统也这样做。具有这种技巧的技术正在逐渐逼近现实。

亚利桑那州立大学计算机科学教授Subbarao Kambhampati说:“即使采用当前的技术,对于某些人来说也很难说出什么是真实的,什么不是。”

Deepfakes(一个通常描述使用尖端人工智能技术拍摄的视频的术语)已经挑战了我们对真实与非真实的假设。

近几个月来,视频证据成为巴西,中非加蓬和中国重大事件的中心。每个人都有相同的问题:视频真实吗?以加蓬总统为例,他不在国外接受医疗护理,他的政府发布了所谓的生活证明视频。反对者声称它是假的。专家称这种混乱为“骗子的红利”。

负责公司Deepfake研究的Google工程师之一尼克·杜福尔(Nick Dufour)说:“您已经看到了Deepfake所产生的实质性影响。”“他们已经允许人们声称,否则将非常令人信服的视频证据是伪造的。”

几十年来,计算机软件已使人们能够操纵照片和视频或从头开始创建假图像。但这是一个缓慢而艰苦的过程,通常只供接受过Adobe Photoshop或After Effects之类的软件变幻莫测的专家使用。

现在,人工智能技术正在简化流程,从而减少了篡改数字图像所需的成本,时间和技能。这些AI系统通过分析成千上万的真实图像来独立学习如何构建伪图像。这意味着他们可以处理曾经属于训练有素的技术人员的部分工作量。这意味着人们可以创造比以往更多的假货。

用于创建深层伪造的技术仍然是相当新的,其结果通常很容易注意到。但是技术在不断发展。尽管用于检测这些虚假视频的工具也在不断发展,但一些研究人员担心它们无法跟上步伐。

谷歌最近表示,任何学术或公司研究人员都可以下载其合成视频集,并使用它们来构建识别伪造品的工具。视频收藏实质上是计算机数字欺骗的提纲。通过分析所有这些图像,人工智能系统学会了如何监视假货。Facebook最近做了类似的事情,使用演员制作假视频,然后将其发布给外部研究人员。

一家专门研究人工智能的加拿大公司Dessa的工程师最近测试了使用Google合成视频制作的Deepfake检测器。它可以识别几乎完美的Google视频。但是,当他们在通过互联网提取的Deepfake视频上测试其检测器时,它有40%以上的时间失败了。

他们最终解决了这个问题,但是只有在借助“在野外”发现的视频(不是由付费演员制作的)帮助重建了探测器之后,才证明了探测器的性能和用于训练它的数据一样好。

他们的测试表明,要打击假冒伪劣和其他形式的在线虚假信息,几乎需要不断进行重新发明。数百个合成视频不足以解决问题,因为它们不一定具有今天分发的假冒视频的特征,在未来几年中将更少。

“与其他问题不同,这一问题一直在变化,” Dessa的创始人兼机器学习负责人Ragavan Thurairatnam说。

2017年12月,一个自称为“伪造品”的人开始使用AI技术,将名人的头部嫁接到色情视频中的裸体上。随着这种做法遍及Twitter,Reddit和PornHub等服务,术语Deepfake进入了流行的词典。很快,这就是发布到互联网上的任何虚假视频的代名词。

用于创建深层伪造的技术的改进速度使AI专家感到惊讶,并且没有理由相信它会变慢。多年来,Deepfakes应当受益于为数不多的技术行业公理之一:计算机总是功能越来越强大,并且数据总是更多。这使所谓的机器学习软件更加有效,它可以帮助创建深层虚假。

“它变得越来越容易,并且它将继续变得越来越容易。毫无疑问,”慕尼黑工业大学计算机科学教授Matthias Niessner说道,他正在与Google进行深度研究。“这种趋势将持续数年。”

问题是:哪方面会更快改善?

像Niessner这样的研究人员正在努力构建可以自动识别和删除深层造假的系统。这是同一枚硬币的另一面。像Deepfake创作者一样,Deepfake检测器通过分析图像来学习其技能。

检测器也可以突飞猛进。Niessner和其他研究人员说,但这需要持续不断的新数据流,这些数据代表互联网上使用的最新Deepfake技术。收集和共享正确的数据可能很困难。相关示例很少,出于隐私和版权的原因,公司不能始终与外部研究人员共享数据。

尽管激进主义者和艺术家偶尔会发布深造假作,以展示这些视频如何在线上改变政治言论,但这些技术并未广泛用于传播虚假信息。据Facebook,谷歌和其他追踪深度欺诈行为的人士称,它们主要用于散布幽默或假色情。

目前,deepfake视频具有细微的瑕疵,即使肉眼无法察觉,也可以通过自动化系统轻松检测到。但是一些研究人员认为,改进后的技术将足够强大,可以创建没有这些微小缺陷的伪造图像。像Google和Facebook这样的公司希望他们能够在此之前安装可靠的探测器。

“在短期内,检测将是相当有效的,”亚利桑那州立大学教授坎巴姆帕蒂说。“从长远来看,我认为将真实图片和假图片区分开是不可能的。”

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读