ZAO微信分享链接已停止访问,「换脸APP」能红多久?

网友:不敢用了!

 

ZAO这出戏可以说跌宕起伏了

1

 

前一天,朋友圈齐刷刷“变脸”刷屏

后一天,朋友圈齐刷刷批判用户协议侵犯隐私

这一天,微信分享链接已停止访问,用户协议整改

编剧都不敢这么写。。。

2

事情的来龙去脉想必屏幕前的你也知道关于ZAO换脸APP的七七八八。

不可否认,ZAO还是赚足了眼球,小智和朋友们也是玩的不亦乐乎。

3

 

ZAO的火爆早在8月上旬内测阶段就有苗头,甚至在上线后,官方都都有点hold不住的赶脚:

4

但也产生了一个深深的疑惑,这技术不新啊,怎么这会突然推出这样一个APP?毕竟之前FB就因此而被推上舆论的风口浪尖。

5

果不出其然,网友们和众家媒体已经在抨击其用户协议的种种问题。

6

不甘心当一个吃瓜群众的小智,今儿也给大家说道说道刷脸咋就引发这么多问题了。

换脸的内核是Deepfake技术

 什么是Deepfake?

Deepfake一词由“Deep learning”(深度学习)和“Fake”(假)组成,其含义是在图像或视频中把一个人的脸替换成另一个人的脸。这项技术的出现可以说是人脸交换技术的一个重要突破。

7

 

几年前的Deepfake技术并没有像现在这样广泛的获取渠道,技术门槛也比较高。后来,有人推出了Windows程序FakeApp,即使是对人工智能或是对视频剪辑一窍不通的外行,只需要一个GPU和一些训练数据,再通过按部就班的操作也能制作出换脸视频。

同时,Deepfake在GitHub 上也已经开源,这一系列的变化都大大降低了Deepfake的获取门槛。

 技术原理 

从技术角度而言,Deepfake是深度图像生成模型的一次成功应用。

在模型训练期间,先把目标人物A的脸抠出来,定位好A的五官位置,训练出一个“无论怎么扭曲和变化A的脸,最后都能生成正常的A脸”的网络。

80

网络训练好后,我们再向其中输入B的脸。此时,在神经网络的逻辑看来,B的脸就是“以某种方式扭曲的A的脸”,需要它来进行“纠正”。并且数据越多,效果越好。

 操作流程 

在FakeApp上的具体的操作大体分为3个步骤:原始数据集获取,模型训练,视频生成。

首先,我们需要一个包含Nvidia GPU的个人电脑,至少4GB的存储空间。至于训练神经网络所需的材料,用户则需要提供至少几百张照片或者时长足够的视频,以便FakeApp从视频中提取所有帧。然后调整合适的参数,就可以开始训练了。

9

在训练过程中,FakeApp会显示一个分数,数值越大则表示训练结果的偏差越大。当这个值低于0.02时效果通常就OK了,此时可以停止训练程序。这一过程需要的总时长从十几到几十小时不等。

最后选择上面训练好的模型和需要的换脸视频,再设置合适的帧率,就可以得到一段自制Deepfake视频。

 关键机制 

其实AI换脸也不算是新鲜事,不过早期的换脸效果确实差强人意。

10

那使用Deepfake生成的人脸为何如此逼真?

这很大程度上归功于一种叫做GAN(生成式对抗网络)的关键机制。

在GAN中有两个机器学习模型,一个扮演“造假者”,在数据集上训练后生成假视频;另一个则扮演“检测者”,不断地检测这些假视频,一直到它再也不能检测出结果是假的。

此外,用于训练的数据集越大,做出的Deepfake视频越真实。这也是为什么我们看到的Deepfake视频中出现的人物几乎都是著名的政客和明星——他们有太多的公开视频素材可供训练了。

人脸侵权风险惹争议

ZAO的用户协议显示:如果您把用户内容中的人脸换成您或其他人的脸,您同意或确保肖像权利人同意授予“ZAO”及其关联公司全球范围内完全免费、不可撤销、永久、可转授权和可再许可的权利。

言外之意,只要你使用了该软件,等同于你主动放弃自己的肖像权,软件方可随意使用你的肖像,即便把你的脸换到色情视频上,你也不能多说一句。

原先被各种换脸视频刷屏的微博朋友圈,一时间人心惶惶。网友们纷纷谴责ZAO的霸王条款,担心自己一不小心成为“网黄”,甚至会被不法分子盗用视频图片等进行人脸识别造成财产损失。

8月31日傍晚,ZAO的工程师们,用修改协议的方式,对隐私权质疑做了回应:其修改了其用户协议内容,在用户协议的开头部分增加了“特别提示”。

11

然而互联网用户隐私问题已经不止一次被推上风口浪尖。2018年,中国消费者协会发布了《APP个人信息泄露情况调查报告》。该报告显示,受访者中曾因个人信息泄露而被骚扰或侵害的人数占比高达85.2%;近七成受访者认为手机应用存在过度索取用户隐私权限的情况;近八成受访者认为手机应用采集个人信息是为了广告推销。

早前滴滴被曝强制向用户调取通讯录等多项隐私权限,随后,华住集团被曝有5亿条数据在暗网兜售。紧接着,快递巨头顺丰的3亿条数据疑似泄露、“剑桥分析”公司盗取5000万Facebook用户数据影响美国大选。

14

近日苹果又被爆出聘请合同工对Siri的录音定期进行监听和分析……接二连三的数据泄露事件,一次又一次撩拨着用户脆弱的神经,如何在互联网时代保护用户隐私的问题亟待解决。

别慌,有办法应对!

为了防范Deepfake背后的社会安全隐患,纽约大学的研究人员研究后发现:在Deepfake生成的虚假视频中,人物的头部动作和瞳孔颜色通常会很怪异,并且几乎不怎么眨眼。这成了目前Deepfake无法逃脱的bug。

15

 

观察原视频和造假视频对应的关键帧,可以看出,假脸人物在原视频的眨眼处并没有眨眼

据了解,这一bug并非来自算法本身的问题,而是它使用的数据集。

当训练深层神经网络时,我们使用的是来自网络的静态图像。即便是像尼古拉斯·凯奇这样的公众人物,他的大多数照片也都是睁着眼睛的,一般很少有人会有大量的闭眼照。既然数据集中几乎没有眨眼图像,那么Deepfake就无法“学会眨眼”,或者眨眼的时长和频率都远小于正常人。

这样的进展,可以算是“魔高一尺,道高一丈”了。

写在最后:

怎么说呢,小智写完这篇文章的心情是复杂的。ZAO产品本身是一个好创意,好玩法,也确实带给用户很多乐趣。

但这样一款技术本身就争议不断地产品,是不是在创作初期就应该将用户协议放在心尖上谨慎处理。也不至于到目前众矢之的的状况。

守护用户隐私安全,尊重每一位用户,才能让产品有存在的意义和空间。

以此为鉴!

1
超过80%语音开发者的共同选择