听说,你每周都要“吃”掉一张信用卡?

生活在塑料时代,A.I.都急了!

我们生活的这颗蓝色星球正在逐渐变成白色

让地球变色的,是无数包裹着它的塑料垃圾

继上海市绿化市容局发布了《生活垃圾分类投放指南》,开始国内垃圾分类「最严执法」后,北京也推硬招,试点生活垃圾“不分类则不收运”机制。

全国推行垃圾分类已经进入了倒计时,前段时间还在对上海人民“哈哈哈哈哈哈”的网友们一个也别想跑。

002

但实际上,从 2010 年导演王久良拍出震惊世界的《垃圾围城》,到2017 年底中国开始禁止洋垃圾入境,再到如今各城进入强制垃圾分类时代。

我们所需要面对的垃圾战争,才刚刚开始。

00222

 王久良纪录片《垃圾围城》,黄色标记为北京周边的垃圾场

每周,我们都要“吃掉”一张信用卡

已打响的垃圾战争中,难以降解的塑料废弃物作为水体、土壤和海洋的主要污染源,是垃圾处理领域的头号大敌

目前的污染已经达到了什么程度呢?

过去二十年间,世界上产出的塑料比其他材料加起来更多;同时,人类产生的废弃物超过 75%都是塑料

2019年5月,一组探险团队在马里亚纳海沟潜水至10927米处,打破深潜最深记录的同时,也在海沟的底部发现了一个塑料垃圾。

2

这意味着什么?

澳大利亚纽卡斯尔大学的研究给出了直观的数据——全球范围内,人们每周摄入的塑料达到 5 克,相当于一张信用卡

3

我们,就是塑料漂流的终点站

日常生活废弃物中的塑料在自然界中,会逐渐被分解成粒径小于5mm的塑料颗粒。这些微塑料会进入河流和海洋,被贻贝、浮游动物等低端食物链生物吃掉。

由于微塑料不能被消化,它们会在贝类、浮游动物的胃里一直存在。当食物链中端的鱼类、鸟类吃掉这些动物时,也会将它们体内无法消化的微塑料吃掉,并继续留在体内。

人类作为食物链顶端的存在,也是塑料漂流的终点站

889

 进入陆地和海洋的微塑料,最终会回到我们的餐桌

“塑料不仅污染了我们的河流和海洋,杀死了水中的生物,也进入了我们所有人的体内。”世界自然基金会国际组织总干事马克·兰伯蒂尼说。

美国领先的调查机构Grand View Research预测,到 2025 年,每 3 吨鱼类将平均含有 1 吨塑料

也就是说,未来你吃的生鱼片,可能会变成塑料片

002222_meitu_1

用无人机与AI算法绘制垃圾地图

六月底的 G20 的峰会上,参会各国在宣言中达成「蓝色海洋愿景」,承诺在 2050 年前实现海洋塑料垃圾的「零排放」。

只有意识和决心还远远不够。英国伦敦的一个团队 Plastic Tide,正在使用人工智能技术来解决塑料污染这个复杂的问题。他们选择先从大太平洋垃圾填埋场(GPGP)下手。

大太平洋垃圾填埋场,是世界海洋中五个海上塑料聚集区中最大的一个。

98

 美国纪录片《塑料天堂:大太平洋垃圾带》

据估计,每年有 115 万-241 万吨塑料进入大太平洋垃圾填埋场。它不是垃圾岛,而是一整片漂流在海洋中的塑胶碎片及微粒,面积达 160 万平方公里,与中国面积最大的省份新疆相当。如果单纯依靠人力捕捞,至少需要 7 万 9 千年。

Plastic Tide一直试图利用现代技术衡量海洋垃圾的规模。

他们使用无人机安装相机,拍摄数以千计的航拍照片,然后用这些照片训练 AI 算法识别塑料垃圾并加以区分。

11

 机器学习分析海洋塑料垃圾

项目最终做出一个开源地图,地图上准确标记出了污染最严重的海岸线。

「借助地图,我们可以了解人类、海洋生物和鸟类生活受影响最严重的地区,环保企业可以把注意力集中在最需要的地方。」Plastic Tide的董事Peter Kohler 如是说。

A.I.+垃圾分类也有新招

回到我们的日常生活中,让广大市民头疼的垃圾分类难点,主要就在于归类

比如教你怎么处理一杯没喝完的奶茶,要分四步走:

8766_meitu_1

 好的,我不喝

夏日宵夜必备小龙虾更是把不少网友搞得晕头转向:整只小龙虾是湿垃圾,去黄龙虾头就是干垃圾?龙虾肉、龙虾黄是湿垃圾,龙虾壳又是干垃圾?

不不不,官方已经辟谣了:小龙虾,龙虾壳,龙虾头,龙虾黄,龙虾肉都属于湿垃圾

875

到底如何正确进行垃圾分类?最稳妥的办法就是通过计算机视觉来实现智能投递

目前已经有小区安装了智能回收垃圾站,只需要在垃圾桶前扫描一下,就能自动识别居民投递物的类型,并提示具体的分类。

除此之外,在垃圾分类的后端处理区,A.I.也能助把力。

传统垃圾分拣的工作是由人类来完成的,肮脏、枯燥,而且危险,常常会接触到有害物品,比如针管、碎玻璃等等,也被称为美国最危险的职业之一。

8888

而北美纸箱包装委员会选择用A.I.进行边缘算力、终端芯片、云端处理的综合联动。他们与阿尔卑斯废物循环利用、AMP 机器人这两家公司合作,在旗下的工厂中安装了AMP公司的Cortex分类机器人

Cortex机器人配备了像蜘蛛一样的机械臂,系统中集成了一颗摄像头,可以利用摄像机向电脑传递影像信息,经过训练的机器学习算法识别出传送带上的垃圾,再对其进行分拣。不仅提高了效率,也降低了健康风险。

告别塑料时代:零浪费、零包装

日前,凯度咨询最新发布《从全球到中国——2019零售趋势洞察》。其中,建立可持续零售模式正是全球市场线下零售趋势之一。

可持续性问题正日益影响着零售业的发展。公司可采用多种不同形式,包括供应链管理、可持续性采购、减少包装和浪费等,推进可持续发展计划。

211

中国也正走在可持续性发展道路上。

212

因为海洋的存在,地球被称为蓝色星球。但塑料垃圾的泛滥,正在让地球变成一个白色星球。

人工智能技术的力量能够加速垃圾清理事业的进度,减少我们对环境造成的伤害。

但想告别塑料时代,就要从源头开始,减少产生塑料垃圾。

别让我们的未来,诞生在垃圾堆里。

00

研究所二维码

一张照片就能生成视频?连口型和声音都能对上!

《哈利波特》诚不欺我也。

你还记得《哈利·波特》电影里,那些会动的的照片吗?

比如守卫着格兰芬多学院休息室的胖夫人——

1

脾气不太好的胖夫人

当年看电影的时候,小智就对这些细节印象深刻。没想到这些魔法现在居然成真了!

现在,只要提供一张照片,利用神经网络技术就能实现让静止的人像动起来,甚至开口说话。

而且是有情绪、有表情,口型跟声音完全一致的那种!

比如玛丽莲·梦露

▼原图

3

▼处理后的动效

4

你可能会说“梦露的影像资料那么多,这gif有什么好稀罕的。” 好吧,那这个怎么样呢——

▼原图

5

▼处理后的动效

6

仅凭蒙娜丽莎的一张平面图片就塑造出了立体动态的人物,这到底是如何实现的呢?

先让照片动起来

研究人员从YouTube上收集了7000张名人照片以及人脸说话视频,对机器进行训练,使其学会识别人脸上的显著特征,如眼睛、嘴巴形状、鼻梁形状等。并使用卷积神经网络创造出动态头部模型

之后,再给这个训练好的模型“贴”上我们想要让它动起来的那张照片。此时,系统能够自己找到对应的五官部分,然后针对新面部里各个的关键点进行调整,最后达到自然的动态效果。

7

此时,即使只有一张目标照片,也能进行人脸模拟。当然,照片的数量越多,最终视频也会越加精致和逼真。

8

1张、8张、32张目标人物的照片的训练结果

研究人员表示“尽管需要调整数千万的参数,该系统能够因人而异地初始化生成器和判别器参数。因此,训练可以在仅借助几幅图像的情况下快速完成”。

加上声音对口型

OK,让静态照片动起来的操作已经完成了,现在再配上音频就能完成了。

不过这“配音”的步骤可没有那么简单。

如果只是简单粗暴地把音频加到做好的视频上,结果就会变成咱们小时候看的粗糙动画片:卡通人物不管在说啥,嘴巴永远只有“开”“合”这两个动作——

9

光看口型,你知道海绵宝宝说了什么吗?

小时候从来都没质疑过人物口型为啥跟台词对不上的朋友,请到这里集合······

10

成年人的视觉对脸部细节的敏感程度比小孩子要高得多,要不然也不会出现明星因为口型对不上被观众逮到假唱的糗事了。

因此,在不久前举办的计算机视觉顶会CVPR 2019 上,这项新研究提出了一个端到端系统。在之前研究的基础上,不仅实现了人物口型和音频的同步,还实现了更为自然的人物面部表情,比如眨眼和眉毛动作等。

11

12

13

新合成视频中人物的情绪饱满

这才是“jpg→gif→mp4”的全过程。

仍有些粗糙

虽然以上的实验成果已经非常惊艳了,但细看之下,仍可以发现不少bug。

例如,正常人说话时会有轻微的头部运动。但实验合成的一些人物头部转动时,五官和脸型会发生变形,有种说不出的怪异感。

14

又比如一些人物背景会发生扭曲

15

而图灵测试的结果也反应,大众并没有那么容易被合成的假视频欺骗。

【什么是图灵测试?】

图灵测试是由“计算机科学之父”艾伦·麦席森·图灵提出的关于机器人的著名判断原则

如果说现在有一台机器人,其运算速度非常快,可以进行听说读写,还能回答许多问题。那么,我们是否就能说这台机器人具有思维能力了呢?

我们可以进行这样的测试:将测试者与被测试的机器人隔开的,测试者通过一些装置(如键盘)向被测试者提出一些问题。几轮问答后,如果测试者能正确分辨出被测试对象中哪些是真人、哪些是机器人,那机器就没有通过图灵测试;反之,若测试者没能判断出来,那这个机器就可以被认为是有人类智能的。

在对本项目进行的图灵测试中,66名测试志愿者需要观看 24 个视频(12 个真实视频,12 个合成视频),并且将每个视频标注为“真”或“假”。测试结果表明,平均用户标注的正确率为 52%。

16

总的来说,模型的动作幅度越大、速度越快,目标照片的背景元素越复杂,产生的怪异感和形变就会越严重;而视频时间越长,观众容易发现漏洞的概率也会越大。

技术应用

单张或少量照片就能完成动态人像,这样的速度和效率让该模型更利于推广。可以预测,未来这一系统将会被应用在游戏、电视、电影特效行业中。

例如好莱坞的许多大型数字特效公司,利用现有技术将一位演员的面容“移植”到另一个身体上,需要花费几个月的时间。而使用这样的技术,可以大大缩短制作时间,节省成本。

17

特效电影《阿凡达》就花费了大量的后期制作时间

当然,也有不少网友表示,一些演技堪忧的流量明星这下可有救了。

18

此外,这一技术还可应用于特殊人物的“复活”。例如,在佛罗里达州的圣彼得堡,达利博物馆就将著名的超现实主义画家达利“复活”了。

在这场名为《Dalí Lives》的展览上,展品是一个显示屏,上面有一个按钮,当你摁下按钮时,屏幕里的达利仿佛听到了门铃声,会走过来和你说话,让人感觉非常真实。

19

而这一展览使用的,就是机器学习驱动的视频编辑技术。

预测将来,这一技术还可以成为私人化定制服务,满足客户将名人或过世的亲人“复活”的需求。

而此刻正在B站刷视频的小智,产生了一个大胆的想法——是时候用AI技术为鬼畜区添砖加瓦了。

20

B站全明星阵容,敬请期待

而点开微信表情包,我又产生了一车大胆的想法——

21

让你的照片动起来 !
想让你的照片动起来吗?jpg秒变gif,甚至可以配上声音变成视频哦。这里有一款简易的小程序可供大家体验!

22

作品示例

获取步骤:

1.微信搜索关注公众号AI研究所

2.转发原文到朋友圈并将截图发送到AI研究所后台;

3.再发送关键词“动态”到后台。

我们确认过后,就会将小程序推送给你!

研究所二维码

超过80%语音开发者的共同选择