世界人工智能大会,亮点可不止“双马”

 

8月29日-31日,2019世界人工智能大会在上海召开。500余位国内外顶尖高校、行业领军企业、国际组织的重要嘉宾云集上海,全球AI知名企业领袖齐聚。

不出意外,大会第一天的重头戏之一就是联合国数字合作高级别小组联合主席、阿里董事局主席马云与特斯拉掌门人马斯克在开幕式上上演“双马对话”。

马云&马斯克:火星撞地球

开幕式上,特斯拉公司联合创始人兼首席执行官埃隆·马斯克(Elon Musk)和联合国数字合作高级别小组联合主席马云进行了一场“双马”对话。

1

 

在对话中,马云关心地球,对当下人类社会发生的改变感兴趣,马斯克更关心宇宙,为人类未来的命运充满担忧。

马斯克说:“人工智能可能比最聪明的人还要聪明,计算机可以超过你几十万倍数字通量的方式进行对话······有一句老话,如果打不过他们就和他们组成团队吧。现在我们已经和手机、电脑连在一块了,我们已经成为带有机器特征的人了,离开了手机像少了一个手臂。”

马云的态度则更乐观“我不认为人工智能是很恐怖的东西,因为人类很聪明。AI很有意思,我们会拥抱它。今天很多问题没有解决方案,但是未来会有的。”

关于火星移民

马斯克认为地球有可能会发生人类无法控制的事情,外部力量或者内部事物导致文明被威胁,让人类只能搬到另外一个星球去生活。

马云说他想留在地球,他表示自己对地球上发生的一切更感兴趣。每个人在地球上最多一百年的生命,我们不可能把未来所有问题都解决,但是我们必须对未来负责。我们要更关注现在的生活怎么能够更好。

科技对生活工作带来的变化

马云说认为AI代替人类工作并不是坏事,“有了人工智能之后,人们会有更多的时间去享受作为人的乐趣。”

而马斯克则透着一种无力感“今后人工智能会使得工作失去意义,可能最后的工作就是写AI软件,最终可能AI自己都会写软件了,所以我建议大家去学工程、物理或者做一些和人互动的工作,当然还有艺术。”

二人在这个问题上有一些分歧,马云说计算机就是机器,机器就是一个玩具,只有傻子才会去和汽车去赛跑。他认为人类被机器控制是不可能的,因为机器是人类发明的。但马斯克说他不同意,认为聪明人犯的最严重的错误就是自以为聪明,表现出了强烈的危机意识。

AI圈的大佬们在说啥
机器学习之父 汤姆·米切尔 
2

零和游戏就是如果德国生产了更多的智能车,日本卖的车就少了一点。但是很多应用场景并不是零和游戏,而是双赢的。比如医疗、保健、教育、环境还有智能城市。

我认为,在这些双赢的应用场景当中,对于每个国家来说一个理性的战略,不仅是要允许合作而是要推动合作,从而找到合适的方式。在国际上分享医疗数据、算法、加速人工智能的发展,推动双赢的应用,从而提高所有人的生活质量。

 科大讯飞董事长 刘庆峰 

3

演讲开始,他以“人工智能变声技术”开始,向大家展示科大讯飞的AI变声技术。
AI应用如何落地、如何规模化应用?刘庆峰谈到,主要看是否达到以下三点,人工智能红利时代才会真正到来。一是是否有真实应用案例;二是否是能够规模化推广的产品;三是需要数据证明应用成效。

刘庆峰还举了一个例子。他介绍到,科大讯飞统计了中国学生过去两年的作业,发现有60%为无效作业。有了AI技术,可准确判断学习方向,掌握学生学习动态。在去年的英语六级考场上,科大讯飞的AI翻译技术的准确率超过了99%的考生。机器阅读理解能力提升后,将开创各个领域应用先河。

什么是人工智能的红利?刘庆峰回答到:用科技帮助更多的人,才是真正的人工智能红利。

 腾讯董事会主席 马化腾  

4

 

我认为,人工智能将有3个发展趋势。

首先,通用人工智能发展趋势越来越清晰了,AI向人类社会继续靠近,从专才向通才发展,实现从专用人工智能向通用人工智能的跨越发展。

第二,在AI应用方面,AI与各行各业日益融合,人工智能发展将会给我们带以‘AI+’为标志的普惠型智能社会。

第三,AI治理方面,以科技向善引领全方位治理,确保AI可知、可用、可控、可靠。

 微软全球执行副总裁 沈向洋 

5

从围棋到德州扑克,人工智能都在逐渐接近甚至超越人类水平。今天在上海,我要向大家宣布,微软亚洲研究院创造出了历史上最强的麻将AI。

麻将具有非常高的复杂度和更加丰富的隐藏信息,因此麻将AI难度更高。微软的麻将AI可以有效处理麻将中的高度不确定性,在对战当中表现出类似人类的直觉,预测、推理以及大局意识。

 商汤科技创始人 汤晓鸥 

6

人工智能第一个字是人,有了顶级的人才,一流的AI就水到渠成了。

有一个年轻的女士戴娟,她拿到美国顶级大学全额奖学金但她放弃了,后来去了美国微软,最后被苹果挖去做了siri产品经理,后来回到商汤成为最好的产品研发和工程负责人之一。商汤就是有了戴娟这样一批人才才有了今天,但是在中国的AI只有他们是完全不够的,我们需要大量创新人才。

最后关于源头创新,“源”字包含三个核心要素:第一是好的创新环境,保护知识产权,让原创者吃饱饭;第二,尊重人才培养,AI+教育十年树木,百年树人;第三,AI需要突破传统行业之间的界限,突破学术与产业的界限,突破学术的国界。有了这三点,源头活水自然就来了。

上海的AI之路

中共中央政治局委员、上海市委书记李强出席开幕式并致辞。

7

 

上海在中国科技发展历程中具有天然优势,是长三角区域、科创板平台、进博会举办城市和自贸新片区。现在人工智能的加入将构造“AI+5G+工业互联网”和“AI+5G+智能制造”双变革引擎,吸引阿里巴巴、腾讯、科大讯飞等一批行业创新中心和AI实验室落沪。加快建设人工智能发展的“上海高地”。

上海将以更加开放的胸襟拥抱人工智能:利用地域优势,吸引国内先进人工智能企业落户,帮助海内外企业达成合作协议,为新兴企业提供展示平台,打造和谐共赢的人工智能发展环境。

上海将以更富创新的探索激活人工智能:以软硬双轮驱动创新能力、原创技术领域为着力点,围绕基础理论、算法、数据、应用等环节,鼓励多元主体共同参与,推动科技创新和制度创新同向发力。

上海将以更具包容的生态滋养人工智能:依托上海的科教资源优势、基础设施优势、数据支持优势打造一流的营商环境,建设人工智能政策支持,健全人工智能法律法规,营造一流的创新生态。

对AI的热情延续到1024

无论如何,世界人工智能大会第一天可以说高潮连连。无论你想去火星移民,还是想在地球折腾;无论你期待未来再也没有996,还是想和机器人同坐一间办公室;所有的期许和大胆都将被贯彻到底。

别急着走,小智预告一下另一场值得期待的大“party”——科大讯飞全球1024开发者节

8

22场分论坛详解全域AI,120位AI前进者主题演讲,1万㎡生态伙伴AI产品展区,105万AI爱好者在这里将找到属于自己的兴趣领域。更有公益音乐节的音浪来袭、AI健康跑的别样体验……现已开通“早鸟票”,2折优惠等你来!

详情请长按识别下方二维码,进入移动端购票
二维码

好了,不剧透了。1024,等你来!

「轮到你了」,一局A.I.介入的真人版狼人杀

即将大结局了!

狼人杀都玩过吧。

你知道现在有“真人版狼人杀”吗?

一部4月首播的烧脑日剧《轮到你了》,就把狼人杀搬到了现实里。

1

豆瓣评分8.7,微博讨论量33.2万,每到更新日,必上热搜。

上一秒还是一个推动剧情的人物,下一秒就被杀了。

上一秒还认定了谁是狼人,下一秒就给TA发了好人卡。

现在进入了《轮到你了 反击篇》,有了新人物的加入,才稍有头绪。

2

一直很喜欢悬疑剧的小智,今天就带大家来看一看这部烧脑神剧,并且透露一个非常重要的秘密——
(凑在耳边超小声)AI将成为本剧重点,务必关注!

3

敢来吗?真人版狼人杀

作为一篇“安利+技术向”的文章,我们先看一下这盘真人版狼人杀,是怎么玩的。

一对年轻夫妇菜奈和翔太搬入公寓。按照惯例需要每户居民,派一个代表参加住户大会。于是,妻子菜奈去开会了。

公寓的管理员是个暴躁无礼、令人讨厌的男人,他在大会上毫不避讳地承认自己是个讨厌的人,“共处3分钟就会引起杀意”。虽然这种无厘头的话语,一时间引起了大家的不快,但接着就有人承认,确实心里会有一个想杀的人。

这个情况下,喜爱推理小说的菜奈阐述了一个理论:

4

5

这意味着如果与被害人没有交际,犯罪者被抓到的几率就会降低。故而,在几个人的提议下,大家将自己想要杀死的目标姓名,写在了纸上,并放入纸箱打乱。随机抽取后,每人就拿到了一张新的纸条。

当时,没有人把它当回事,但第二天管理员就坠楼而死。

这仅仅是个开始。

6

随后公寓的邻居藤井发现,自己想杀死的一位明星医生真的遇害了,内心恐慌不已的他接连多日收到了恐吓信,上面写着血红色的字“轮到你了”。

当你想杀的人已经死掉,就意味着,你要帮别人杀死纸条上的那个名字所有者。这场交换杀人游戏就此拉开序幕,命案也一起一起地发生着,整个公寓人心惶惶。

直到《反击篇》里,公寓的新住户登场,似乎有了揭秘游戏操盘者的可能。

7

这位新住户叫二阶堂忍,大学读的是人工智能专业。一看就是又帅又聪明,是照进阴暗公寓的一道亮光。

由于男主翔太的妻子同样死在了这场游戏中,翔太很快找上了“这束光”,希望他利用人工智能技术来找出凶手。

在小智看来,这个高智商的人工智能领域人才,对于全剧谜底的揭露绝对有巨大的推动作用。毕竟,在现实中,人工智能已经真真实实地应用在犯罪预测中。

A.I.恢恢,疏而不漏

二阶堂忍的AI犯罪预测程序是这样设计的——

8

9

听起来挺简单,就像某种数据分析一样,还有点像机器版的犯罪侧写师(根据犯罪行为推测凶手状态的专业人员),但实际上AI犯罪预测的背后还是有一套比较复杂的逻辑。

2017年爱丁堡大学的某研究团队发表了一篇论文《谁是凶手?犯罪剧集作为自然语言理解的案例》,他们将美剧《CSI:犯罪现场调查》的剧集脚本,变成自然语言的训练数据集,输入一个LSTM模型。

10

LSTM模型(Long-Short Term Memory,长短期记忆模型),是深度学习中一种特殊的循环神经网络。循环网络建模,与推理任务的顺序特性比较契合,可以把“找出谁是真凶”变成一个序列标签的问题。

简而言之,就是把图像、音频和文本等内容输入模型中,通过这些内容反映出来的特征,用LSTM模型判断,内容中是否提及了罪犯。

11

测试结果是,AI的准确率超过60%,而人类的平均预测精度接近85%。虽然低于人类水平,但考虑到对比的人类样本比较小,也不能说明这套系统就不行。

研究团队表示,AI看剧本会在大约第190句话时猜测真凶,而人类通常在第300句话时才能大概作出判断。

12

还有一些已经得到应用的例子,比如美国的PredPol公司表示,自己可以靠着数据分析与演算法提高城市中10%至50%的“犯罪侦测率”。

他们采用预测地震余震的演算法,对犯罪历史数据、社会经济数据进行分析,预测出未来12小时内的犯罪地点和时间。预测结果会在地图上显示出来,红框表示高风险区域,建议警察集中巡逻。

13

目前在美国和英国的警察部门均有在使用该软件,英国警方表示使用软件后的4个月里,街头暴力事件下降了6%。

人类 vs AI,谁先抓到凶手?

不过现阶段的犯罪预测还存在很多问题,并不是一个非常成熟的技术,在找凶手这件事情上,AI 经常翻车。

2017年,英国南威尔士警方在欧冠决赛期间进行AI面部识别测试,与罪犯凸显数据库匹配分析,发现配对目标。

结果17万人中,2470人被标记为潜在配对目标,但其中2297人识别错误,错误率高达92%。

14

大西洋的另一边,2018年,亚马逊的面部识别系统Rekognition将28名国会议员的照片,识别成已被逮捕的罪犯。仿佛惹到了不该惹的人,这就非常尴尬。

面部识别上,AI有点脸盲;大数据分析上,它还学会了“歧视”的坏毛病。

在数据演算的犯罪预测中,系统赋予不同肤色的嫌疑人犯罪风险评分(1-10分),其中黑皮肤的非洲裔美国人,极易获得比白皮肤的美国人,更高的“再犯罪”评分。

15

由于AI学习的是过往数据,许多资料里已经参杂了司法系统的既有观点,AI的预测结果非但没能做到客观,反而会加深大家的偏见。

那么在《轮到你了》里,AI会犯错吗?

16

这还真的不好回答。

剧情发展,还是不能完全从技术可靠性的角度去分析。考虑到各种错综复杂的情况,编剧首要保证的是“不烂尾”,因此给观众一个合理的结局、不被全网吐槽是最为重要的。

让《反击篇》里出现一个拥有特殊技能的人物,必然还是有大作用的,小智大胆猜测,紧跟着二阶堂忍的AI,多少都能发现一些幕后Boss的蛛丝马迹。

剧中同样在分析杀人游戏的,还有很多人。(以下内容涉及剧透,请慎重阅读)

垃圾分类最强王者木下茜,通过收集住户们的垃圾,对大家进行分析,虽然是为了自己的写作创作而收集素材,但她通过这些丢弃垃圾里的信息,掌握了不少秘密。

17

退休银行职工田宫淳一郎,在公寓的各个角落里安装摄像头,希望可以通过自己的暗中监视找到可疑人物。

18

但很快他就又撤回了自己的摄像头,并躲在被窝里躺了好几天。

这个细节到现在都还没交代清楚,小智估计,山田一定是看到了什么,才不敢再监视整栋公寓。

面对这种恐怖事件,公寓里的人各自都会有一些判断,警察也一直在追查,就看看谁先能揪出最后的凶手。

以及最重要的:狼人是谁???

19

靠着现有的伏笔和细节,网友们纷纷给出了自己的预测,小智真的要献出膝盖了。为了满足大家的好奇心,在此挑选几个符合小智猜想的预测,分享一下脑洞。

▶︎ 凑齐斐波那契数列杀人法:听起来和《非自然死亡》的字母顺序杀人法很类似

20

▶︎ 致敬柯南:《轮到你了》的编剧确实个忠实的柯南迷,很多镜头都有柯南的漫画书,并且在情节上也致敬了柯南。但后面的剧情会不会也和柯南有关,就不知道了。
不过,男主翔太的冲动犯傻性格,和毛利小五郎真的有一拼。

21

▶︎ 人工智能杀人猜想:这个脑洞真的给跪了,如果真是如此,那后面的几集不就是黑岛AI与二阶堂AI之间的对决?悬疑剧瞬间有了科幻色彩,有点神奇。

22

不管怎么预测,具备成为狼人特质的人选已经不是很多了,更何况黑岛的主角光环那么强,小智已站“黑岛铁狼”的队了。

23

二阶堂的AI已经开始投入运转,现在我们只需要祈求:

“千万不要烂尾”。

20

《王者荣耀》场场0-8,是谁给了你勇气继续玩下去?

上周五,2019王者荣耀世界冠军杯的半决赛中,有一场与众不同的5v5对决——

一边是五位电竞职业玩家组成的赛区联队,而另一边是你既看不到点屏幕的手速,也听不到队内丰富语音的腾讯王者荣耀AI绝悟

AI绝悟

整场比赛仅用时16分15秒,AI方以“不想回家,打到弹尽粮绝”的策略,团灭赛区联队,推掉全部9塔和高地水晶

虽然此前腾讯的AI不是没在王者荣耀对决中胜利过,但当时只是概率上的逼平而已,这回的比赛,简直是把对手按在地上摩擦啊!(送上精彩瞬间回顾)

《王者荣耀》的世界以后要让AI来称霸了吗?不会不会,毕竟还有那么多人在玩呢。

作为日常霸榜的MOBA手游,《王者荣耀》的吸粉能力有目共睹。小智今天就和大家探讨一下,为什么大家都爱玩《王者荣耀》

  • 「AI绝悟」是怎么领悟的?
2015年10月,《王者荣耀》面世当天,就登上了苹果应用市场免费榜的第一名。2017年的数据显示,它的月流水超过30亿元,相当于微博2016财年全年的净营收。
《王者荣耀》的前身是一款端游《霸三国OL》,尽管借鉴了一定经验,但从《霸三国OL》到《王者荣耀》是代码的完全颠覆。
他们以“游戏大厅”和“PvP”为服务器主要架构,后来加入了Proxy中转服务器,也正是这个服务器的加入为《王者荣耀》解决了后来“安卓、iOS”同服等一系列出现的问题。
信息架构
这些技术能够支持单个大厅进程承载2万人,单个PvP承载1.2万。但真正让人震惊的并不仅是这款游戏自身的技术,而是前面提到的那个“几近无敌”的AI绝悟
去年12月,在王者荣耀 KPL 秋季决赛期间,腾讯 AI Lab 与王者荣耀共同探索的研究项目——AI绝悟首次露面,与前KPL职业选手和职业解说组成的人类战队(平均水平超过99%玩家),进行5V5水平测试,取得了胜利。
秋季赛人记对决
腾讯很快公布了论文《Hierarchical Macro Strategy Model for MOBA Game AI(MOBA游戏AI的分层宏观策略模型)》,清晰详细地解释了AI绝悟的训练经历和其背后的算法逻辑。
当时论文里的数据是:AI 5v5对阵《王者荣耀》王者段位人类玩家,大战250局,胜率48%。而现在,AI绝悟已达到职业电竞选手的水平。上周五,ChinaJoy开幕当天,顶级业务玩家与绝悟进行了504场1v1对决,绝悟的胜率为99.8%,仅输给了国服第一后羿。
世界杯半决赛这是怎么实现的?让我们看回那篇论文。
所谓“分层宏观策略”,是一种以“观察、行动、奖励”为路径的深度强化学习模型,没有人类数据的训练,从白板学习(Tabula Rasa)开始,是 AI 与AI之间的战斗。
宏观分层
经过模型的训练,每个智能体可以实现独立决策、与队友沟通,并成为实力超群的顶尖玩家。
▶︎独立决策:模型分为注意力层(Attention Layer)和时期层(Phase Layer),能够让AI知道自己控制的英雄往哪儿走、游戏处于前期还是后期、敌方资源如何、现阶段的小目标是什么。
▶︎ 队内沟通:腾讯AI团队用队友的注意力标签来训练AI,实现能够预测队友的动向,即跨智能体沟通机制。
让AI和人类玩家打游戏的不仅是腾讯,谷歌DeepMind、OpenAI,都分别在训练AI玩星际争霸2、Dota2等游戏。AlphaGo是AI技术上的飞跃点,但它仍然是在解决比较简单的问题,这些团队所看到的,是AlphaGo之后的东西
openAI
绝悟的成功,能在电竞职业选手的训练中提供数据、建议和陪练等,对整个电子竞技的发展意义重大。但正如腾讯AI Lab所说,“游戏只是对真实世界的模拟,他们所希望的是AI在学习如何做上千个小决定后来达成更大的终极目标。”
  • 《王者荣耀》的另一面
截至2017年5月,《王者荣耀》的累计注册用户超过2亿,上至35岁以上、下至14岁以下,都有它的用户,且男女性的比例处于持平的状态,可以说算得上是一款全民游戏。
《王者荣耀》能够有如此吸粉能力,除游戏本身的优势,还要得益于它的IP搭建。2018年的UP2018腾讯新文创生态大会上,《王者荣耀》品牌总监的演讲主题是“王者荣耀的另一面”
这一面是文化理想
英雄海报
《王者荣耀》中80%以上的英雄以及故事构架都来源于历史著名人物,他们希望通过皮肤设计、人物台词、文案等,让这些英雄角色,承载起文化传播的重任。
比如,甄姬的主题皮肤“游园惊梦”就涉及了昆曲文化,项羽和虞姬的“霸王别姬”形象打造等等。
甄姬
游戏之外,《王者荣耀》推出了“荣耀诗会”、《王者历史课》等栏目;冠名湖南卫视的《百心百匠》纪录片。
参与腾讯发起的“长城你造不造”计划,为长城千米修复工程捐款;与敦煌研究院联合推出“王者荣耀数字供养人计划”…..
供养人
这些是以往的游戏所做不到的,它形成了一个非常良性的闭环。不同文化的传播能够触达更为广泛的人群,不少玩家是因为《王者荣耀》的昆曲、历史氛围、角色设计等而开始玩这款游戏。用户流量增长后,能够接触到文化的人群也会扩大,传播的影响力也就更大。
文化理想是一种社会责任的承担,《王者荣耀》凭借自身强大的IP生态也确实能够承担得起这个任务。它的IP吸引了更多非游戏品牌的进入,如美妆品牌M·A·C、派克钢笔等等,在上海它甚至搭建了自己的大型游戏实景展区。
mac

《2018年全球授权业市场调查报告》显示,IP这个大蛋糕在全球有近3000亿美元的份额,但中国目前仅占了3.4%,未来的《王者荣耀》以及像它这样的游戏IP,是否能够分到更大块的蛋糕,就要边走边看了。

  • 那些年努力进步的「游戏们」
中国无疑是一个热爱游戏的国家,自2015年起,中国就成为了全球游戏市场规模最大的国家
上世纪的80、90年代是微型处理器的时代,电子游戏出现在了日常生活中。我们会去游戏厅玩《超级马里奥》、《泡泡龙》,也会在家里的电视前狂玩任天堂的红白机、或是它的山寨版小霸王学习机。
红白机
家里没有一台小霸王,小朋友都不会来你家玩,如何在班里立足?好不容易有了一台,妈妈天天忧虑地跟你说,“少玩一点,电视都给你打坏了!”
可见游戏诞生伊始,就为家庭创建了一个永恒的“话题”。但也不必担心,“望子成龙小霸王”,也确实靠着BASIC语言,让很多人玩着玩着成了程序员。
小霸王往后,个人电脑流行起来,不少公司加入了游戏产业。美国和日本借用先前的优势,率先开发单机游戏,如《红色警戒》,同时台湾的公司也推出了《三国演义》、《笑傲江湖》等具有中国文化气息的游戏。
s三国演义 三国演义2
其中就有影响颇大的《仙剑奇侠传》,彼时1995年,后来金山西山居做了类似的《剑侠情缘》系列。
时隔多年后,《剑侠情缘2》还被拉出来吐槽其钢铁直男风,游戏背景是岳飞抗金时期,主角的故事非常之凄惨,网友直言“一股国仇家恨的热血味道扑面而来”。
仙剑情缘
21世纪初,互联网兴起,韩国成为了网游时代的先行者,我们所熟知的《千年》、《龙族》、《红月》都是从韩国而来的。
不久,中国跳出了游戏代理的圈子,开始做游戏生产了。网易的《大话西游Online》、新浪的《天堂》、搜狐的《骑士Online》,开启了我们自己的网络游戏时代
大话西游
不过《大话西游》系列的难度,对于当时习惯玩泡泡堂的小学生来说,操作上还是一个质的飞跃。同时培养了小朋友们勤俭节约的好习惯——据知乎网友表述,“当时寄售一张15块钱点卡450w,经常去网吧拿出1块1块攒的30块买2张点卡,充1张寄售1张。”
大话西游2
2005年,一个具有里程碑意义的游戏诞生:《魔兽世界》。它第一次将社交与游戏结合在了一起,开启了MMO(Massive Multiplayer Online,大型多人在线游戏)网游时代。
魔兽1
《魔兽》系列游戏打造了一个极其真实的世界,不少玩家多年后还记得那场惨烈的联盟部落攻城战,打字的手都在微微发抖。
然而14年过去了,部落和联盟还是不共戴天。
魔兽2
21世纪的第一个十年结束后,游戏已然从游戏厂商和玩家之间跳出,进而影响到了更多的行业。智能手机的普及,带来了手游,移动端便捷、快速的优点极大程度地扩大了中国的游戏市场。
从《开心消消乐》们,到《和平精英》们,不同的游戏类型都找到了自己合适的受众群体。不管在哪,你可能都会听到一句“Unbelievable!”,或者“你已进入刺激战场,加油!特种兵!”
吃鸡
一批一批认真在玩游戏、做游戏的人,也打破众多偏见与阻挠,带起了中国的电子竞技。
不可否认,《王者荣耀》是现象级的游戏,但绝不是唯一一个。游戏的发展脱离不了科技的进步,每一个新技术的诞生对这个行业来说,都是一个新的变革点。
vr
随着人工智能、大数据、VR(虚拟现实) 和 AR(增强现实)等技术的进展和普及,更具交互性、沉浸感的游戏在未来等待着我们。
今年5月,小霸王游戏机的团队被曝出解散,这个应时代而诞生的公司,失去了时代红利,没有核心竞争力而只能成为记忆。
毕竟情怀虽好,但情怀不能够支撑起一切。游戏还是要靠技术的。
20
吹爆《哪吒》的理由有10000个,还有「1个」你未曾察觉

特效!特效!加AI的特效!

周末,小智吃下来自全网的安利,去看了这部被誉为国漫之光、国漫历史之最的电影——《哪吒之魔童降世》(以下简称《哪吒》)。

fc74566041ac47bca1e34c8de4656ccc

感受只有一个:都给我去看《哪吒》!

这部电影在一个周末收获了全网的关注,仅上映第四天,官方微博就宣布票房已破10亿。

《哪吒》为什么爆了?除了故事和感情线,最吸引人的就是:特效!特效!特效!

它们是这样——

9d5857ad102b0911bc555d198a57fbd

以及这样的——

2

光是几个片段,就足以让人惊心动魄,特效技术的力量就体现在这里了。

借着这部电影,今天就带大家从技术的角度,挖掘一下记忆中的“小哪吒”们,以小见大,或许你就知道为什么它可以被称作“国漫之光”,以及这道光会在未来怎样闪耀下去。

01 一代人有一代的“哪吒”

先讲讲国漫史。

中国动画的开端在1926年,万氏四兄弟拍摄了第一部动画片《大闹画室》。在往后的几十年里,很多经典的片子在客观条件有限的情况下,艰难诞生。1961年的《大闹天宫》,第一次出现了哪吒的动画形象,虽然有三头六臂等特点,但和记忆中的样子还是相差甚远。

4

1979年,中国上海美术电影制片厂拍摄了动画电影《哪吒闹海》,这个像年画娃娃一样的小男孩,奠定了往后哪吒的大体形象。闹海杀龙、割肉还母、剔骨还父等成为了哪吒比较经典的故事。

5当时采用的还是传统动画技术,手工绘制每一帧的画面,然后以每秒24帧(电影)或25帧(电视PAL制)、30 帧(NTSC制)的速度连续播放形成动画。典型的老电影风格,有种说不出的蜜汁年代感。

二十多年后,也就是2003年,终于有了一部属于小哪吒自己的动画长片《哪吒传奇》,以及耳熟能详的主题曲——

“是他!就是他!是他!就是他!我们的朋友小哪吒!“

6

延续《哪吒闹海》,这里的哪吒依旧是一个反抗父权、反抗纣王统治的形象,善与恶、正与邪都表现得非常鲜明。

这部动画片的技术必然是增长了不少。此时,计算机的普及已经能够支撑大批二维动画被制作出来。但,《哪吒传奇》每分钟的制作成本达两万以上,是市场平均成本的两到三倍,耗费了极大的人力、物力、财力。

7

作为经典的神话人物,哪吒与孙悟空一样,被多次搬上了大荧幕,但基本都没有脱离几十年前的那个框架。直到今年的《哪吒之魔童降世》,过往的模版才被彻底的颠覆

8

这个哪吒从出生就带着反叛精神,“若命运不公,就和它斗到底”,更像是当代人,对生活压力的一种呼喊。一代人有一代的哪吒,现在的哪吒就是这个样子。

02  这代哪吒靠特效

人物的塑造除了靠故事,更多是靠细节。

自从人们开始运用CG技术(Computer Graphics,计算机图形)和动作捕捉技术以后,电影不加点特效,都不好意思说自己是大片。

据统计,2018年全球电影票房排名前十的影片中,特效片占比90%,总票房达100亿。特效对于电影的意义俨然是非常重大。

不过,“加特效”说起来容易,做起来很难。电影中,一个“火莲花融化冰层”的镜头,影片里仅有6秒,但团队在制作时却花费了6个月

9

一直以来,特效制作都面临着两个比较大的问题——耗时长和质量不高

很多大片拍摄可以早早地完成,但真正将上映提上日程,或许需要半年、一年以上的时间,这个时间全部给了特效制作。或者稍有不慎,就会出现这样面部僵硬又鬼畜、严重失真的低质量“5毛特效”。

10

好消息是,任何技术上的难题都会随着科技的进步而被解决。人工智能的世界里,电影特效制作的难度可以在一定程度上被降低。

03  加特效这事,AI很智能

人工智能在数字特效制作中的应用,涉及动作捕捉、虚拟角色构建、模拟动力学和自然现象等等多个场景,一个个解释起来还是很复杂的。但下面的几个案例,可以帮助不太了解的人,去弄懂“AI+特效”的套路。

▶︎ 更快捷!

很多大片的制作需要不同的工作室,以流水线的方式,挨个进行设计和特效渲染,很多时间就浪费在了流程上。

英伟达就开发了一个3D设计协作平台Omniverse,应用光线追踪RTX技术,可以加强不同特效工作室的协作能力,提高制作效率。

11

美国的Arraiy公司则创造了一个计算机视觉和机器学习平台,能够实现在离开拍摄片场前,就可以看到后期完成的场景是什么样子,省去了拍摄效果不好导致的重复性劳动。

12

▶︎ 更精准!

《复仇者联盟3》中,灭霸杀死自己的女儿卡魔拉后,可以从面部细节,看出他隐忍的悲痛。也让很多观众感受到,灭霸并不是一个完全铁石心肠的角色。

13

灭霸的形象塑造如此成功,就要感谢一款名为Masquerade的机器学习软件。它通过两个垂直方向的高清摄像头采集面部数据,细致追踪面部的100-150个跟踪点。

再通过计算机技术,训练、调整机器学习模型,输出成三维面部模型(动态),完美复制演员面部的动作,甚至是细微的肌肉运动。

14

可以说,人工智能将极大的提升电影特效制作的效率,未来会有更多的特效大片出现在大荧幕。

04  “封神宇宙”还有多远?

从《哪吒》的片尾彩蛋来看,下面还会推出哪吒系列的第二部,以及电影《姜子牙》。这个架势,怕不是要打造一个比肩漫威宇宙的“封神宇宙”

15

事情没有这么简单哦。从特效技术层面来说,我们和别人还是差了不止一点两点。如果“《哪吒》里特效镜头占80%”这个信息就能震撼到你,那么看看下面这个——

《复联3》全片有2680个特效,只有4个镜头没使用特效,而《复联4》则包含超过3000个特效镜头,所占比例可能与第三部的99.85%

16

《哪吒》或许是一个好的范例,但放眼整个电影市场,观众已经无力吐槽了。每年都有一些“大片”声称请了好莱坞特效团队,宣传着制作成本的高昂,最后还不是被疯狂diss为“5毛特效”

为什么?

我们不缺钱,但花错了地方。忙着给流量主演高额薪酬,忘了投资给掌握“核心技术”的后期团队。

我们技术也不算差,但就是没被重视。特效是用来制作更高级、宏大的场景,是点睛之笔。而这边,是拿后期当补丁,弥补拍摄的不足。

电视剧、电影、动画动漫,从本质上来说都是影视作品。如果大部分靠真人扮演的剧都要糊弄过去,面对“零真人”的国漫时,要怎么办呢?

从《大圣归来》,到《大鱼海棠》,到《白蛇:缘起》到《哪吒之魔童降世》,口碑和票房基本可以算得上是双丰收,国漫已然是证明了自己的实力

18

近几年的优质国漫电影

但每一部的成功之后,都会在问:“国漫崛起了吗?”

好像还不能有一个非常乐观的答复。就成本而言,其他商业大片投入已经与国际差距不大,但中国动画电影的制作成本不过是美国的1/17

距离漫威系列,我们还差多少个《哪吒》,才能搭建自己的“封神宇宙”,真的很难说啊……

20

驾驶室的博弈:A.I.构造智能汽车新引擎

A.I.纽北赛道,谁能弯道超车?

CAAM(中国汽车工业协会)公布数据显示2017年我国新能源汽车销量达到77.7万辆,中国新能源汽车连续三年成为全球第一的销量大国,预计2020年我国的新能源汽车产量将达到200万辆。这标志着我国拥有国际一流的汽车消费环境,国民对于科技和新技术应用在汽车领域表现强烈好感!

中国交通工具发展史,是由一场场科技改善人出行方式的革命而组成。

1

▲爷爷说他小时候出行大多依靠脚力,能坐上黄包车在当时可是身份的象征。

微信截图_20190725140211

▲童年记忆最深的就是坐在爸爸的“二八大杠”上,迎着风高喊“再快一点~再快一点!”

微信图片_20190725141519

▲舅舅结婚的时候拥有了第一辆属于自己的摩托车,他激动的以为这是他这辈子唯一一辆交通工具了。

 微信图片_20190725144124

▲如今汽车已经走进千家万户,除了便捷了我们的出行,科技带给我们的还有人车交互舒适度的升级。

汽车已经成为我们生活中必不可少的代步工具,随着时代更迭,我们对于汽车的需求又有怎样的变化呢?

中国人对汽车越来越“挑剔”

5c3d850f2b84c-thumb

这几年人们对于汽车的需求愈演愈烈,据中国汽车市场部门的全面统计,随着经济社会的发展,我国人口在不断增长的同时,大家对衣食住行的要求也不断增高,尤其在购买汽车的需求上只增不减。

5d37ce4b-508c-44fe-8c1f-0ec9ac10c663

除了对汽车需求数量不断增加,近几年中国用户的购买力提升使得整体倾向力集中在更具品质的车型上:从2017年各价格区间的销售线状分布看,与2016年相比,15万元以上价格区间的占比明显提升。在此之下汽车的销量降低,尤其是在6至9万元价格区间。由此看出中国用户在车辆上对于多媒体,智能性,舒适性以及操控性上有了更多的追求。

驾车出行的痛点是什么

但随着汽车数量的增多,我们时常会看到各个城市发生越来越多的交通事故,大部分都与醉驾,疲劳驾驶有关。据相关数据显示,在中国每年由于酒后驾车引发的交通事故达数万起,有50%以上的事故造成死亡。

微信截图_20190724135524

所以人在驾车时间和精力上有很大的弊端,这个时候如果在车上安装检测驾驶员的眨眼情况,确定是否疲劳,必要时停车报警的防疲劳智能系统,会不会减少不必要的交通事故呢?答案当然是肯定的。

A24986F13B9A5A4DA1BEEB798E759B654269B8CC8_size43_w553_h369

对于一些马路杀手来说,他们最为烦恼的便是控制不了车速或车距,因此在转弯处的道路上也会常常发生追尾事件。

640

智能汽车可避免因驾驶员失误造成的交通事故安全,不仅减少了路程时间,避免了车辆扎堆,道路拥挤的状况,还保证了驾驶人以及同车人员的安全,从而有效提高道路交通的安全性。

A.I. , 解决你的出行痛点,让汽车智能起来。

人工智能升级驾乘体验

所以当汽车全面应用了人工智能技术后,我们的生活将会发生什么变化呢?

微信截图_20190727151526

行车安全性提高

驾驶汽车时,驾驶人不需时刻紧盯路面状况,也不必担心与转角处的汽车相撞,甚至不要自己手控操作,例如ACC自适应巡航控制或激光测距系统,可以精准的通过安装在车顶的雷达探测前方物体的距离,感知路面环境,车辆位置以及障碍物,控制车辆的速度和方向,提供择优的最佳路线,这么一来,刚开车的新手小白也不会再烦恼倒车入库的问题。

城市环境得到改善

lsaX-fypnsip8301193

在本是大量汽车排放有害尾气的环境里,智能汽车通过其控制系统提高燃油利用率,减少温室气体与有害气体的排放量,汽车经过你身边时,你不再需要捂着鼻子害怕有害气体进入身体,城市的环境也会因为有害气体的减少变得更加干净。

出行停车更加便捷
出去游玩时,寻找车位也变得更加便捷,在人流密集的商场,车站,酒店旁停车,人工智能会直接自行寻找停车位,减少了寻找车位的烦恼以及与人抢夺车位发生的不必要的矛盾。
开启商务办公应用新潮流
当智能化汽车普及后,商务办公不再局限于一种形式,结合无限通信技术和网络技术,把人群从办公室解放出来,使其在车辆开展视频对话,文件传输,会议交流等各个项目,更加便捷和多样化,节省了时间与成本,使汽车作为移动办公室。
提供更多的娱乐项目

154682131

我们在车上可以享受更多的休闲时光,不仅只限于在手机或电脑上玩各种游戏,听音乐,看电影,大家在开车过程中还可以一边玩乐,让开车不再成为一件有压力或疲惫的事情。

在享受人工智能的服务下,我们的生活水平将会大大提高,以更舒适的方式出行成为我们需要追求的一个目标。

A.I. , 让你出门如居家,享受惬意时光。

大赛赋能汽车“场景引擎”

科大讯飞2019届iFLYTEK A.I.开发者大赛是推动人工智能前沿科学研究和创新成果转化,培育人工智能产业人才,助力人工智能生态建设的一个人工智能竞赛平台。

1111

为了开发者更好的了解赛题内容,我们特别邀请了教育赛道的出题人为我们带来官方赛题解读——

赛题的设计初衷是什么?

为解决在线服务与车主互动更友好和安全,科大讯飞打造“让驾驶更智能、更安全、更有趣的人工智能车载系统”,坚持“服务找人”的设计理念,我们需要一个聪明的“场景引擎”,能识别到汽车使用的各种场景,从而为车载大脑提供决策依据。

赛题任务要求是什么?

根据测试场景引擎效果和架构灵活性等维度,将挑战分为两个不同难度的子任务,即任务一 (提供场景引擎架构设计)和任务二(提供场景引擎 demo)。除规定的车载赛题外,其他泛车载领域内作品均可提交。

作品提交要求是什么?
a.使用工具限定 EA、visio,推荐 EA;b.材料内容包含整体架构及逻辑架构,引擎核心的详细设计等;

c.技术要求需考虑扩展性、可用性;

d.文件格式 (1 )文件大小 50M以内;

(2)【可选】为更好的阐述架构设计思路,参赛团队可以提供如PPT、视频、图片、演示demo等作为补充;

写在最后

“如果你觉得岁月静好, 一定是有人在为你负重前行。”

不知何时,汽车早已成为代替我们双脚出行的工具, 如今不再是一匹马,一只飞鸽交流信息的时代了, 一辆汽车便可让我们欣赏到各地不同的绮丽风景, 来一次说走就走的旅行。

在这一切的背后是每位为科技事业献身, 为人工智能呕心沥血的工作者们共同谋划的新创意与新思想,。

我们只需去支持,理解与尊重便足矣。

iFLYTEK A.I.开发者大赛设立智慧汽车应用赛题,旨在为人类智慧出行寻找一条可持续发展的道路,寻求智能、安全、有趣三合一的人工智能车载系统,让人工智能在汽车领域开辟新的蓝图。

本期《赛道直通车》关于智能汽车赛道的解读就到这,下期我们会带来智慧家庭赛道的相关内容。你也可以添加下方二维码了解更多大赛资讯。

微信图片_20190719141831

2019-07-27 ~ 2019-07-28合肥
用A.I.传递知识,用心点亮教育

人工智能开发者大赛赋能教育应用,A.I.技术重塑教育生态

“教育是国家万年根本大计。教育应该培植出活力,使学生向上成长。教育应该将环境的阻力变成助力,师生之间共甘苦,为了最好的教育。”

——陶行知

前几天,清华女孩张薇因为一句话,被新华网、中国青年报争相报道:

用一年时间,做一件终生难忘的事

3b292df5e0fe9925910464c2292249da8cb171a2

(图为张薇在清华大学毕业典礼上演讲)

张薇来自甘肃一个国家级贫困县。交通不便,教育资源有限,经济相对落后。推研成功后,她申请延迟1年入学,加入大学生支教团,追寻改变家乡教育困难现状的初心。

寒门女孩凭借努力学习改变自己的命运,成材后不忘反哺家乡的精神更是难能可贵。但是张薇自述的“教育资源有限”究竟是什么,或许我们可以从下面的图片中清楚感受。

中国教育众生相

02

▲哪怕走过村子里最长的铁索桥,求学路也不像城里的孩子一片坦途。

01

▲我的课间娱乐是在泥泞中放牛,而你们可以在绿色的草坪上放风筝

03

▲教育师资不均衡,乡村教师一专多能,除了教学工作以外还要照顾学生的生活。

05

▲爸爸觉得上学浪费钱,要我辍学我没答应。如今我成为一名老师来改变更多人的命运。

04

▲身在不同的环境,孩子们求知的眼神始终如一。

教育与我们每个人都息息相关。但是现阶段还存在着诸多问题亟待解决,比如教育资源分配不均,无法针对每一名学生弱点因材施教等等。如何解决这些难题?

运用A.I.,让你不再为孩子的教育担心。

A.I.重塑教育“生态结构”

5月18日在北京召开的国际人工智能与教育大会上,中国教育部部长陈宝生作主旨报告,他提出:人工智能是重塑教育生态结构的重要手段。

人工智能技术在教育中的深度广泛应用,将彻底改变教育的时空场景和供给水平,实现信息共享,推动教育运作流程规范化,使个性化和多元化教育成为可能。

904a07f4-79f5-48f2-8f50-7e66b7cd9b18

(图为国际人工智能与教育大会现场)

作为国家教育信息化战略布局的重要环节,人工智能应用于教育教学实践中已是大势所趋。小编根据部长报告总结出了三点A.I.改善教育生态,赋能师生的优势。

推进教育公平

我国城乡、区域之间教育差距较大,优质教育资源总量不足,农村地区信息技术普及率偏低。如何让人人都能享受到教育现代化的红利?A.I.技术可以解决教育公平的难题。

01a98556e17f4832f875520fd679d7.jpg@900w_1l_2o_100sh

通过互联网、人工智能等技术整合,建立国家数字教育资源公共服务体系。能够把优质的教育资源,高效便捷、低成本地辐射到边远贫困地区。

创立双师教育模式,通过远程视频辅导让每个孩子都能享受到特级教师的教学课程,而农村的老师可以针对孩子进行个性教学。

辅助老师创造性教学

运用A.I.技术解决教师教学过程中一些重复性的工作,比如传统教学中经常有遇到批改英语试卷,布置课下作业等。这些又枯燥又容易标准化的工作,恰恰是人工智能所适合的。

微信图片_20190719135532

运用图像识别和语义分析,A.I.可以高效率的完成这些工作,而且不会犯错。这样就可以将老师从重复性工作中解脱出来,专注于更有价值且富有创造性的工作中。

针对学生因材施教

学生时代我们都有过类似的经历:明明已经掌握的知识点,可是老师总是反复讲解,而有些还没理解的问题刚想提问,一堂课就结束了。这种问题源于我们每个人的学习能力不同,但是老师需要顾及大部分学生的状态,才会有这样的学习体验。

123

应用AI技术可以为每位同学量身打造个性化教学方案,针对自身薄弱环节因材施教,学生不仅能够提升学习效率,而且可以找到合适的学习方法。

A.I.大赛助力教育革新

科大讯飞2019届iFLYTEK A.I.开发者大赛是推动人工智能前沿科学研究和创新成果转化,培育人工智能产业人才,助力人工智能生态建设的一项顶尖人工智能竞赛平台。

▲点击文字进入官网报名▲

智慧教育创新应用挑战赛作为本届大赛赛题之一,依托“人工智能助力教育、因材施教成就梦想”的理念。汇集全球开发者运用A.I.技术为创新教学形式、优化教学内容提供新的可能性。

为了开发者更好的了解赛题内容,我们特别邀请了教育赛道的出题人为我们带来官方赛题解读——

有问必答

问:教育赛道的赛题任务是什么?

答:以基础教育应用为场景,基于讯飞人工智能语音技术,完成一款以帮助师生减负增效为目标的教或学的产品研发。参赛作品须使用至少一项讯飞开放平台技术语音或图像。

问:初赛阶段提交作品要求
答:项目计划书内容包括:

1) 项目背景:描述要解决的核心问题是什么(用户痛点);
2) 产品功能规划:阐述计划产品将有那些基本功能可以帮助师生减负增效,产品特色,核心优势等;
3) 技术层面:计划采用哪些技术、产品技术架构、创意创新性等;
4) 商业模式:简要介绍将采用何种运营模式、盈利模式,以及发展规划等;
5) 团队介绍:项目主负责人及核心成员的履历介绍,公司/团队架构,以及合作伙伴资源等;
6) 项目原创性声明:承诺提交方案及成果的原创性和真实性,若由此产生的知识产权纠纷由参赛者自行承担;

问:初赛阶段的评分标准
答:

  • 可行性:方案对赛题的理论可实现性,资源开销,对外部资源(如服务器)依赖情况;
  • 功能完备程度:思考全面,无功能缺失,尤其是对要解决的核心问题所提供的解决方案完善;
  • 创新性:有不同于市面上已有产品的新思考,角度新颖,解决方案独特;
  • 商业价值:具备良好的商业前景,能够创造市场效益;
  • 市场策略:运营模式、盈利模式及发展规划思路清晰且可落地;
  • 应用前景:产品/解决方案是行业/用户的真实需求,要解决的核心问题在社会上有较高的关注度;

教育因A.I.而能

鲁迅先生说:教育植根于爱

无论在什么时代,教育的目的都是育人。而A.I.的出现正是为了解决教育过程中遇到的问题,用科学技术贡献自己的力量——

你想要教育公平,A.I.可以将优质教育资源传输到每一个孩子手中

你想要因材施教,A.I.可以通过大数据分析为孩子的学习查缺补漏

你想要减负增效,A.I.可以用人工智能方式解决重复标准化的工作

未来,A.I.与教育会形成共生关系存在我们的生活中。如何让我们在人工智能时代找到适合自己的学习方式;让每个孩子都有平等受教育的权利。这就是科大讯飞2019届 A.I.开发者大赛设置智慧教育创新应用赛的初衷

本期《赛道直通车》关于智慧教育赛道的解读就到这,下期我们会带来智能汽车赛道的相关内容,请大家持续关注。

更多大赛详细咨询,请关注下方二维码添加A.I.小助手的微信,有专家一对一在线解答问题,还会不定期宠粉发放福利,请快点加入我们吧!

微信图片_20190719141831

2019-07-25 ~ 2019-07-25合肥
谷歌 I/O:语音助手成精了!承包你的衣食住行

比你妈还懂你的助手。

a

一年一度的Google I/O开发者大会如期而至。

今年也是Google旗帜鲜明推行“AI First”战略的第四个年头。一直强调的“Bringing the benefits of AI to everyone”,也在2小时的演讲中不断得到证实。

Google CEO 桑达尔·皮猜淡定登场
Google CEO 桑达尔·皮猜淡定登场

 

Google Assistant升级:这才是智能语音该有的顺畅

观看了升级版语音助手的完整演示之后,我只有一个感受:舒坦!

此话怎讲?

 

1.有话直说,刻意唤醒不需要

我们熟知的语音助手在使用之前都必须先唤醒,例如“Hey Siri”,未经唤醒的语音助手就处于无法响应的睡眠状态。这导致每次用语音助手的时候不仅麻烦,而且还显得使用者有点······蠢。

而这次的Google Assistant则不需要刻意唤醒。在演示中我们可以看到,原本在看 John Legend推特的使用者临时起意,对Assistant 说“我想去看他的演唱会诶。”

反应时间不到 1 秒,手机就立刻规划出了去John Legend演唱会的路线,甚至连最实惠的打车方案都帮你想好了。

3

2.要打开哪些APP我自己知道

-“我想发一张在美国黄石公园拍的照片给朋友。”

-“有动物的。”

-“发送。”

4

在这一连串的语音命令下,Google Assistant首先进入了手机相册,筛选出地点是在黄石公园的照片,再挑选出其中内容包含动物的,最后跳转到邮件发送页面,光标自动衔接到邮件文字的输入中。全程的指令识别和应用跳转都十分顺畅,不需要多次唤醒也不用人为切换应用。

3.执行速度,这次是真的快

Google Assistant整合了众多机器学习的功能。理论上,当它收到一则语音请求时,需要通过三个独立的模型进行处理,从而理解语音命令。原来在这一过程中,Google Assistant需要多达100GB的数据来进行分析;而现在,数据大小被成功地压缩到了0.5GB,大大缩小了从用户语音发出到命令执行的延迟。

通过现场的演示我们也可以看到,在用户连续不停地发出语音指令的情况下,Google Assistant也能迅速流畅地执行,几乎可以说是“实时”。

5

通过Google Assistant的这些操作展示可以看出,语音操控已经极大地摆脱了之前唤醒烦、反应慢、工作笨的情况,用起来越来越舒坦。这都有赖于AI技术的加入,从“Mobile first”到“AI first”,人工智能技术成为了Google战略布局中越来越重要的一环。

 

Live Caption :掌上的即时“字幕组”

与你更亲近的语音助手只是开胃菜,此次I/O 2019上Google将几百G的机器学习成果浓缩到手机应用中,就是要让AI带给你的生活更多便利,更多人情味!

没有字幕组,啃生肉视频很吃力?在Google的Live Caption诞生后这些即将成为历史。通过Live Caption,设备上播放的任何视频、音频的语音都可以被实时转录,生成字幕。

20936771b7b8d117c359e5f22e55cfe1

但仅仅是语音转文字还不够带劲,Google还玩出了如下爆点:

1.网速根本不是个事

Live Caption的突破,在于把整个功能完整地安装在了手机端中。

这意味着什么呢?你的手机即使没有联网,也可以使用Live Caption对任何视频和音频进行加字幕处理,而无需担心准确率和效果会受到没有与网络数据库相连的影响。

过去YouTube曾推出自动给视频加字幕的功能,但Live Caption则进一步突破网络限制,拓宽了发挥空间。

2.啃生肉无需连蒙带猜

Live Caption除了能实时转字幕,还能同时进行翻译,将外语视频的字幕以你的母语形式呈现出来。

7

在现场演示中,画面上的母亲正在喂自己女儿吃饭,但是母亲说的是韩语,而下面的字幕正在实时转成英语,不得不说如果这种功能以后得到普及,字幕组真的可以光荣退休了~~~

3.让残障人士听得到,说得出

Google基于音视频字幕功能的突破,也与大家分享了自己在公益上的新想法——

通过生成字幕,可以让听障人群也能和正常人一样接收电话与视频聊天中的信息。而输入文字实时转语音,也将代替手语,让通话如普通人一样自然流畅。

8

同样受益的还有渐冻症患者。Google的新技术让他们可以通过嘴唇的细微运动来准确输入文本,表达自己的意思。相比于过去通过眼睛运动来输入,正确率更高,对身体负担更小。

9

10

正如Google在本次大会上所传达的:“成为惠及每个人的 Google,无论你是谁,住在哪里,想要实现什么。 ”


严格来说,本次I/O大会上登台的应用或多或少都是从前两年发布的新产品延伸而来。但随着各项技术的不断完善,例如现场演示的Google assistant与真人对话、相册自动推荐修改等功能,的确让人感觉到Google的诚意。

除了效果更佳之外,这些全新功能与系统的结合程度也颇高,反而降低了用户在这些新功能上的学习成本和使用成本。

初学者不可错过的分布式机器学习4大知识点 | AI知识科普

分布式机器学习成功解决了大量具有挑战性的关键问题,今天晚上班主任就来和同学们聊一聊分布式机器学习起源、流程、算法以及目前流行的分布式机器学习平台。

随着“大数据”概念而兴起的分布式机器学习,在人工智能的新时代里解决了大量最具挑战性的问题。

近几年,机器学习在很多领域取得了空前的成功,也因此彻底改变了人工智能的发展方向。大数据时代的到来一方面促进了机器学习的长足发展,另一方面也给机器学习带来了前所未有的新挑战。

在这些发展与挑战中,分布式机器学习应运而生并成功解决了大量具有挑战性的关键问题,今天晚上班主任就来和同学们聊一聊分布式机器学习起源、流程、算法以及目前流行的分布式机器学习平台。

1、起源:大数据和大模型带来的挑战

在开始聊起源之前,我们先来看张图:
1

 

这张图是展示了ImageNet近几年的错误率,2011年的时候错误率还将近有25%,这样的错误率很难运用到实际应用中。到2015年,ImageNet错误率已经降低到3%左右,比人类的错误率(5%)还要低, 短短的4-5年时间,机器在ImageNet上的识别率便超过了人类。

导致这一结果的原因有2个:一是数据,另一个是模型。

大规模训练数据的出现为训练大模型提供了物质基础,大规模机器学习模型具有超强的表达能力,可以解决很多复杂和高难度的问题。

在解决这些问题的同时,大规模机器学习模型也有着非常明显的弊端:包含参数众多,训练耗时;模型巨大,传统的计算机和工作站难以处理;容易过拟合,在训练数据集上表现良好,在未知测试数据上表现不尽人意。

比较典型的例子是电商网站上的用户行为数据,比如在淘宝上很多用户每天都能看到系统推荐的产品,这些产品是根据用户日常浏览和点击习惯进行推荐的,淘宝的服务器将用户点击的产品行为记录下来,作为分布式机器学习系统的输入。输出是一个数学模型,可以预测一个用户喜欢看到哪些商品,从而在下一次展示推荐商品的时候,多展示那些用户喜欢的商品。

类似的,还有互联网广告系统,根据几亿用户的广告点击行为,为其推荐更容易被点击的广告。
2

 

淘宝推荐系统大致如图所示

由上述案例可以知,现在我们很难用一台计算机去处理工业规模的机器学习模型了,所以说分布式训练已经成为了一个先决条件。

2、流程:了解-探索-设计

分布式机器学习说白了,其实就是把任务发放给许多机器,然后让它们协同去帮忙训练数据和模型。
3

 

如图所示,我们会把任务下发给许多的worker,然后这些worker协同的去训练模型。

通过对分布式机器学习起源的讲解,我们可以将分布式机器学习的使用场景粗分为三类:计算量太大、训练数据太多、训练模型太大太过复杂。

这三种场景都有相对应的解决办法,对于计算量太大可采用共享内存的多机并行运算;对于训练数据太多,可以将数据进行划分,分配到多个工作节点上进行训练;而对于训练模型太大,也可以将模型进行划分,分配到不同的工作节点上进行训练。
4

 

不管是以上场景中的哪一种,还是几种场景混合在一起的情况,分布式机器学习都可以分为三步流程:

第一步是了解机器学习的模型以及优化方法;第二步是要去探索分布式机器学习的范式;第三步是设计系统,无论系统的设计者还是系统的使用者,都要知道系统为什么要这样设计,这样设计对我们选择什么样的机器学习有怎样的帮助。

3、算法:数据并行、模型并行、梯度下降

数据并行

数据并行是指由于训练样本非常多模型非常大,我们需要把训练数据划分到不同的机器上,比如说我们用100台机器同时存储这些数据,如果这些模型有10万个数据样,用100台机器来存储,每台机器存储1000条数据即可。

对于每一台worker来说,训练算法、分布式和在单机上没有什么区别,只是需要在节点之间同步模型参数。

其中参数平均是最简单的一种数据并行化。若采用参数平均法,训练的过程如下所示:

1、基于模型的配置随机初始化网络模型参数

2、将当前这组参数分发到各个工作节点

3、在每个工作节点,用数据集的一部分数据进行训练

4、将各个工作节点的参数的均值作为全局参数值

5、若还有训练数据没有参与训练,则继续从第二步开始

5

模型并行

模型并行将模型拆分成几个分片,由几个训练单元分别持有,共同协作完成训练。

深度学习的计算其实主要是矩阵运算,而在计算时这些矩阵都是保存在内存里的,如果是用GPU卡计算的话就是放在显存里,可是有的时候矩阵会非常大。面对这种超大矩阵便需要将其拆分,分到不同处理器上去计算。6

 

梯度下降

1847年梯度下降被提出来之后,这些年业内提出了各种各样的优化算法,优化算法是一个非常漫长的演变过程。
7

 

大家可以看到图中有一条分界线, 在2010之前的算法主要是Deterministic algorithms,这种算法具有很强确定性。换句话说,就是可以在数学上保证此算法进行的每一步都是精确的,能够指导我们的优化目标。

2010年之后的这些模型被称做stochastic algorithms,不再要求每一步都是精确的梯度下降,或者每一步要做最精确的优化。stochastic algorithms让每一步只进行随机的优化,最终把所有数据优化完以后,还是能够优化到最低点。

随着数据越来越大,Deterministic algorithms规则已经越来变得越来越不适用了。对于大量的计算数据,我们不可能每一次都做梯度下降,随机梯度下降变得越来越有优势,资源利用率也会更高。

4、分布式机器学习三大平台:Spark、PMLS、TensorFlow

在纽约州立大学布法罗分校计算机科学与工程教授、Petuum Inc. 顾问 Murat Demirbas 和他的两位学生一起发表的那篇对比现有分布式机器学习平台的论文中,将分布式机器学习平台归类为了三大基本设计方法:

1.基本数据流(basic dataflow)

2.参数服务器模型(parameter-server model)

3.先进数据流(advanced dataflow)

并根据这三大基本设计方法,使用了业内著名的三大分布式机器学习平台,其中基本数据流方法使用了 Apache Spark、参数服务器模型使用了 PMLS(Petuum)、先进数据流模型使用了 TensorFlow 和 MXNet。

并在测试中得出相应的结论,班主任摘取关键部分出来,供大家参考(论文原文可访问:https://www.cse.buffalo.edu/~demirbas/publications/DistMLplat.pdf,译文参考网络翻译)

Spark

在基本的设置中,Spark 将模型参数存储在驱动器节点,工作器与驱动器通信从而在每次迭代后更新这些参数。对于大规模部署而言,这些模型参数可能并不适合驱动器,并且会作为一个 RDD 而进行维护更新。

这会带来大量额外开销,因为每次迭代都需要创造一个新的 RDD 来保存更新后的模型参数。更新模型涉及到在整个机器/磁盘上重排数据,这就限制了 Spark 的扩展性。

PMLS

PMLS节点会存储和更新模型参数以及响应来自工作器的请求。工作器会请求来自它们的局部 PS 副本的最新模型参数,并在分配给它们的数据集部分上执行计算。

PMLS还采用了 SSP(Stale Synchronous Parallelism)模型,这比 BSP(Bulk Synchronous Parellelism)模型更宽松——其中工作器在每次迭代结束时同步。SSP 为工作器的同步减少了麻烦,确保最快的工作器不能超过最慢的工作器 s 次迭代。

 TensorFlow

 TensorFlow使用节点和边的有向图来表示计算。节点表示计算,状态可变。而边则表示多维数据数组(张量),在节点之间传输。

TensorFlow 需要用户静态声明这种符号计算图,并对该图使用复写和分区(rewrite& partitioning)将其分配到机器上进行分布式执行。(MXNet,尤其是 DyNet 使用了图的动态声明,这改善了编程的难度和灵活性。)
8关注我们,收看更多精彩课程

640

过去活跃在科幻片中的“克隆人”可自提,这事儿好像成真了……

在前不久刚刚结束的科大讯飞1024开发者节上,关于首届“顶天立地”iFLYTEK A.I. 开发者大赛总决赛中,一家名为“奇幻科技”的企业果断get到了如此“妙不可言”的科技点。

发表于2018-11-14 17:23| 来源CSDN| 作者刘晶晶


289_181114172457_1
《邓丽君·传奇》全息演唱会现场

(图片来源:https://item.btime.com/m_9d090cf74ff9f25c7?page=1

看到曾经的华人巨星邓丽君再现舞台,并真实领略了天后的倩影和歌声的经典重现,着实有点儿小鸡冻!

话说,如果好莱坞大片中的“替身小分队”纷纷主动“换角”,动作演员替身要失业,你会怎么想?

据可靠“情报”,如今确实有很多大牌动作明星都选择使用虚拟替身,就连好莱坞自己也并不想再使用真实演员完成高危动作,其中成本是首要被考虑的因素。例如我们熟悉的热门电影《创:战纪》、《复仇者联盟》三、四季以及前段时间霸屏的《头号玩家》等,在拍摄过程中均延用此道。

虽说以上发生的这些事儿在鸡冻之余确实有些麻烦,但以虚拟人技术与MR技术(AR+VR)混合成的“虚拟人全息”技术,的确让“随时随地创建属于自己的阿凡达”这事儿成功突破了科学幻想的边界。

试想一下,过去活跃在科幻片中的“克隆人”可自提?实在有趣!

需要解释说明的一点,这里提到的“克隆人”并非我们通常意义上的以生物学为基础的基因复制,而是来源于美国知名生物制药公司联合治疗公司创始人兼CEO玛蒂娜·罗斯布拉特的争议之作《虚拟人》,书中提出的“思维克隆人、网络人等虚拟人将如何颠覆人类对‘我’的定义”。
289_181114172521_1

图片来源:www.cyzone.cn

说来也巧,就在前不久刚刚结束的科大讯飞1024开发者节上,关于首届“顶天立地”iFLYTEK A.I. 开发者大赛总决赛中,一家名为“奇幻科技”的企业果断get到了如此“妙不可言”的科技点。

通过图像建模、语音识别、语义识别等人工智能技术,搭建了一套数字化人物模型及智能的中心系统,用户使用后可以通过上传自己的照片来快速获得虚拟人形象,这款基于AI技术的智能虚拟人系统被大家称作“Amazing Me”,并荣获了应用开发 AI 挑战赛的亚军圣冠。

奇幻科技方面表示,研发Amazing Me最初的想法,是想让每个人都可以创建与自己长相一样的虚拟人,更重要的是能够让虚拟人成为人类的“陪伴者”,填补精神层面的缺失与空虚。


289_181114172551_1

Amazing Me 虚拟人

(图片来源:http://finance.huanqiu.com/cjrd/2017-08/11068843.html 

据了解,除了长相的高度重合外,奇幻科技的研发团队还通过AI 算法为每个虚拟人在表情、动作、记忆等细节中“生发”个性化的形象特点,更有趣的是,新鲜出炉的虚拟人还能做到自我学习,在外形和思维方面不断趋近于真人,果然如名字般够惊喜!

具体来说,为了让上线的虚拟人形象越来越像“真的你”,Amazing Me采用了一套“AI自适应整容”方案。就是利用照片与视频建立与真人一样的虚拟人模型之后,通过AI 算法,捕捉和学习与真人在形象上的细微变化,不断对虚拟人模型加以调整优化,从而达成虚拟人与真人同步成长。

此外,虚拟人还可以学习真人的表情和动作,通过捕捉建立个人的表情动作数据库;具备的人脸识别和唤醒功能让其在机器学习的技术“影响”下,做到与人真正对话,在交谈中提升技能,值得提出的一点,应用中涉及到的语音能力均是讯飞开放平台所提供。

不同于美国科幻电影《Her》中陪伴男主人公的萨曼莎只有声音,智能虚拟人还有一个逼真的实体。对此奇幻科技表示,未来,高度类同真人的智能虚拟人前景优势巨大,可以融入到很多实际应用中“放光发热”!

“首先,他们真的可以创造一种新的生活场景,例如虚拟人的VR电影!”让每个人走入电影中成为主角,明星的虚拟人甚至可以代替真人表演发挥,是一个驱动电影发展的好办法!奇幻科技方说。
289_181114172614_1

篮球运动员马布里虚拟人首发

(图片来源:http://ent.ifeng.com/a/20181015/43124051_0.shtml

另外就是目前比较常见的应用类型,对故去人物的还原。这方面主要通过历史故事或者相关的数据信息,将历史名人、故去的明星偶像等搬到故居、蜡像馆甚至是舞台上,与游客以及观众实现交互,产生活灵活现的对话。

此外,还可以模拟斯坦福大学虚拟人机界面实验室(VHIL)的虚拟角色,创建一个老师的虚拟镜像。怎么用?系统会根据每个学生的言行举止“创造”出一个与学生相貌以及举止行为类似并更有亲和力的老师形象,从而提高听课的效率。事实证明,让一个学生喜欢的老师来授课,确实会大大提高其学习效率,何乐而不为呢?

现如今市场上在售的、具有陪护功能的智能机器人多不胜数,虚拟人的成熟上线正可打破机器人“第三者”的身份,从“真正亲人”的角度出发,甚至可以在特殊时间代替家庭重要角色进行互动交流,让诸如留守儿童等特殊群体随时得到父母关爱。

更重要的是,智能虚拟人通过自我学习可以不断加深对服务对象的了解,还能够实时记录个人成长,例如在不同的年龄阶段建立档案等,或许未来某一天,人类可以与某个时期的自己对话也说不定呢!

畅聊智能虚拟人之后,我们再来详细聊一聊这家名为“奇幻科技”的企业吧!

“我们是一家以内容为切入点的技术公司。”这是奇幻科技团队上下赋予自己的定位。

创业之初,在VR发展的五大方向(操作系统、硬件、线下体验、应用于内容)中,奇幻科技妥妥选择了从内容出发,寻找与产品和技术的结合点。在这个前提下,加大技术的自研力度,例如语音交互、眼球追踪等,成为团队一直以来的不断追求达成的目标。

技术的高效研发需要一支高精尖的团队,据悉奇幻科技还有一支强大的、来自国内以及美国的人工智能团队,同时包括高校资深的科研任务为其提供技术指导,如此来看内容以及交互技术才有了落地的可能性。

除了“智能虚拟人”的新鲜上线之外,奇幻科技还在线下打造了一种全新模式——“奇幻乐园”,将人工智能与VR技术有机结合,目前已在成都、青岛、厦门、宁波等地陆续落地。

例如在宁波,奇幻科技的线下VR主题乐园已经建立并投入运营,乐园涵盖二十多项VR体验项目,是目前最大的一处VR乐园,主要包括探索宇宙的天文馆、探索太空的虚拟航天飞机、回到侏罗纪时代的恐龙馆等诸多基于虚拟现实的体验项目。

289_181114172727_1

图片来源:http://www.sohu.com/a/168535878_117206 

其中VR教室能够为中小学生提供科学类、自然灾害的安全教学以及红色教育等“真实”内容,这些在传统课堂中都很难实现。“我们在所有VR主题乐园中都设有VR教室,主要面向宁波几十万小学生,让广泛开展的课外实践活动可以具备身临其境的体验。”据小编了解,未来智能虚拟人将成为主题乐园的核心。

关于未来,奇幻科技的规划很清晰,就是把人工智能和VR、AR、全息投影等创新技术结合起来,打造虚拟人的技术体系,并以此建立线上线下的各种应用。更重要的是,做成一家真正关注未来、关心人性且不以盈利为唯一目的企业,是奇幻科技的初心所在。

凭借创新的AI应用,奇幻科技在科大讯飞首届iFLYTEK AI开发者大赛上表现亮眼。

据了解,本次大赛共设置了“方言种类识别AI挑战赛”和“应用开发AI挑战赛”两项赛事,历时6个多月,吸引了1万余名世界各地的优秀开发者踊跃参加,共计收到全球3千多支团队提交参赛作品,经过决赛的选拔,眼前一亮的厉害作品更是层出不穷。

更重要的是,大赛面向全球首次开放中文方言语音数据集以及 AIUI 人机对话交互,语音听写、合成、评测、翻译,人脸识别,声纹识别等十余项人工智能核心技术,极大促进人工智能应用场景的升级。

不但技术上大力支持开发团队,还将为参赛选手们提供百万现金、科技晚宴、就业通道等全方位资源扶持,试想一下,在科大讯飞如此给力的助动下,未来如同奇幻科技一样的出色企业以及醉心语音研究的开发者们,定会迅速崭露头角,大放光彩……

新能力上线 | 精准识别2万种物体,还能看人脸测颜值!

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

划重点

科大讯飞能力星云计划的优秀AI服务合作伙伴——图普科技,带来人脸识别、自然场景识别新能力!戳一下了解详情:人脸特征分析场景识别物体识别

如今,打开微信朋友圈,一条条动态几乎没有不配图的。晒风景,晒美食,晒自拍……一天不“晒图”简直浑身难受。

 

全世界每天每分钟会上传超过5亿张图片到互联网,随着高速网络的普及与智能设备的发展,图片已成为用户表达、事件记录中不可或缺的部分。内容审核、照片管理、营销推广等需要处理大量图片的工作对图像识别能力的需求正在不断增强。

对于开发图像智能识别产品的开发者,想让产品脱颖而出,不仅要让识别高效精准,还要能通过独一无二的功能带来全新的玩法,比如可以给好友的自拍评一个颜值指数、从一张晒吃照片中迅速获得美食信息……

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

 

人脸特征分析

颜值、表情多维度识别,准确度99.5%

基于深度学习算法,可以检测图像中的人脸并进行一系列人脸相关的特征分析,当前支持识别出包括性别、颜值、年龄、表情多维度人脸信息。可用作基础人脸信息的解析,智能分析人群特征。

 

年龄

对上传的图片中人物的年龄段进行判断分类,如婴儿、青年、中年、老年等。

性别

识别出上传的图片中人物的性别。对露出全脸、侧脸的真人或动漫人物进行“男性”、“女性”的分类。图中有多个可辨别面部特征的人或动漫人物时识别为“多人”。对画面无人、面部未显示或无法辨认的图片归为“其它”。

颜值

对上传的图片中人物颜值进行分析,给出对应结果:漂亮、好看、普通、低颜值等。

表情

识别出图片中人物的表情特征:喜悦、愤怒、悲伤、惊恐、厌恶等。

能力优势

1、准确度达99.5% 

对于日常生活中的人脸,准确率高达 99.5%。

2、可适应多种复杂环境

在遮挡、光照不佳、头部姿态变化等复杂场景下均具备高性能表现。

3、处理高效稳定

毫秒级响应速度,在 PC、移动设备上均能迅速处理。

可应用场景

1、客流属性识别 

通过对图像或视频中的人脸特征分析,分析客流的性别、年龄等属性。

2、广告精准投放

通过人脸特征分析,可以实时分析受众人群的性别、年龄等特征和分布状况,精准投放广告。

3、线下营销

基于人脸特征分析,商场、餐厅等场所可展开颜值测试类的互动营销活动,增加与顾客的互动。

自然场景识别

覆盖数十种场景,2万种物体

场景识别

精准识别自然环境下数十种场景,让智能相册管理、照片检索和分类等基于场景的应用展现得更加直观。

对实际应用场景分为室内、室外、自然风景和其他四大分类,每个分类都会按照实际场景细分为多个类别,根据用户上传的图片里对应的实际场景返回结果。

 

物体识别

全球领先的通用物体检测算法,有效检测图像中的动物、交通工具、生活家具等2万多种生活常见物体。可分析图片主要内容,帮助技术团队对图像语义进行自动化解读。

 

能力优势

1、超高准确度

全球领先的智能识别算法,让图片内的场景和物体可以被准确识别。

2、功能强大

支持数十种场景、数万种物体识别,并在持续增加中。

3、适应复杂环境

在模糊、倾斜、光照不均、背景杂乱等情况下均保持高性能表现。

4、处理高效稳定

毫秒级响应速度,并在实际场景中不断优化性能表现。

可应用场景

1、拍照识图

自动识别所拍照片的内容,减少人工录入成本及出错率。

2、图片内容检索

根据图片场景自动分类,建立快速检索系统。

3、智能相册

根据用户上传照片进行主体检测,精准识别照片信息,批量读图实现相册智能分类管理。

4、内容及广告推荐

识别用户经常浏览的网页中的图片信息,推送相关内容或广告。

5、以图搜物

在不知道图片中物体的名称时,自动化检测并展示图片内的物体信息,方便进一步搜索物体的相关内容。

来官网进一步了解吧!
人脸特征分析

场景识别

物体识别

A.I.能力星云

除了自研能力,科大讯飞还与业内优秀的技术厂商进行战略互补形式的合作。带来能力星云计划

讯飞开放平台自2010年成立以来,经过8年的积累,现已开放近百项A.I.能力,赋能88万开发者团队。在能力星云中,A.I.服务合作伙伴通过讯飞开放平台的桥梁,为更多的A.I.开发者和爱好者提供服务,让技术为在更多场景中落地,为各行业赋能。

A.I.服务合作伙伴在能力星云中拥有:

官网专栏产品页

讯飞开放平台上线A.I.能力详情页,产品介绍,接入流程,能力提供方等信息一应俱全!

全渠道推广宣传

线上渠道,线下市场活动,会针对A.I.服务合作伙伴的产品进行全网宣传和推广,扩大影响力,吸引更多开发者使用A.I.能力!

商机即时对接

专业团队负责商机梳理和对接,A.I.新能力商机将会即时处理,定期同步给A.I.服务合作伙伴,带来更多商业资源引流。

共享开放平台开发者

讯飞开放平台丰富的开发者将率先体验A.I.新能力,并应用在产品中,形成更多的合作案例以及解决方案!

未来,能力星云将让厂商的实用级核心技术陆续与讯飞的核心能力一起,汇聚成A.I.能力的星云,释放巨大的组合效应!

科大讯飞魏思:技术在不断发展的同时,也在朝着历史「回归」

技术在不断发展的同时,也在朝着历史「回归」
如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向.

在刚刚结束的全球1024开发者节上,科大讯飞研究院魏思就模式识别和人工智能的发展关系和发展历史问题,做了他自己15年来的A.I.追光故事分享。

他在分享中提出如下观点:

技术在不断发展的同时,也在朝着历史「回归」

如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向

……

这些观点是非常值得我们去学习和思考的,我们将魏思院长的演讲文稿整理出来,希望对大家未来的研究之路能够有所启发。

以下为演讲稿的文字整理,有部分微调

我叫魏思,来自科大讯飞研究院,我大概有15年的时间一直在从事模式识别方面的工作。

模式识别大概有60、70年的发展历史,最近这十年好像行业技术发展得很好,但实际上我认为它是朝着历史回归了

目前所有研究的方向、模型都回归到了条件相关性或者是条件依赖性的数学模型上,而此模型是在80年代中期由美国科学家Judea Pearl提出来的,后来这套模型演变成了图模型,目前的基于深度学习的模型和图模型在数学上的变化非常小,但是实际效果变化却非常大。

接下来我会从4个方向去讲述这几十年来技术的发展脉络。这4个方向分别是人类或者动物的神经元信号的传递机理和人工神经网络;统计和模式识别;语音和语言方面的研究;图像识别的研究进展

 

点击查看魏思演讲全部视频

从生物神经网络到人工神经网络

18世纪,意大利的科学家伽伐尼发现青蛙的蛙腿放在金属上会引起抽搐,这是人类第一次发现肌肉可以由电刺激而产生动作,于是伽伐尼猜测了生物电的存在。

1920年阿德里安通过实验证明了神经元动作电位的存在。而早在20世纪初的时候,科学家伯恩斯坦提出了静息膜电位的概念,并发现静息膜电位为-70mv,同时他猜测带电物体穿越细胞膜或许是动作电位产生的机理。

1939年霍奇金和赫胥黎通过枪乌贼神经元的系列精细实验证明了神经元的细胞内外确实存在电流,并测量出了动作电位的大小(110mv)。他们发现是钠离子的内流形成了真正的动作电位,钠离子内流之后钾离子外流保持细胞内外的静息膜电位然后他们猜测了两件事情,第一,膜上有离子通道,第二,存在离子转运蛋白保持膜内外离子平衡,这些后来都被分子生物学所证明。静息膜电位,离子内外流动和转运蛋白一起完成了动作电位的产生。
h'y640

 

魏思现场演讲

同期(1920-1930)Loewi,Dale,Katz发现了神经递质乙酰胆碱,乙酰胆碱引起离子通道打开从而在神经元间形成动作电位,完成了信息在不同神经元之间的传递,至此,神经元的信号传递分子机理基本梳理清楚了。

在此基础上,1943年McCulloch和Pitts提出一种非常简单的数学模型(MP模型)去近似神经元的信号处理机制。1958年美国科学家罗森布拉特首次发现可以用MP模型,去完成很简单的模式识别任务,也就是让机器识别物体和数字,这也是第一代神经网络,我们称之为感知机

我们把那个阶段称之为神经网络第一次浪潮,但很快浪潮就过去了,因为当时的感知机的识别性能比较低,在实际中很难发挥作用。

同时在50年代,Kuffler,Hubel和Wiesel发现了视觉神经系统的工作机理,原来视觉不是响应弥散光的照射,而是响应不同形状的光照。他们创造性的提出了感受野的概念,现在我们知道这就是滤波器。

受此研究的影响,贝尔实验室的科学家LeCun在80年代末90年代初想到了利用卷积或者形状响应机理设计一种算法去进行文字的识别,但当时,模式识别界被SVM主导,这个发明并没有引起很大的反响。

640了魏思现场演讲

同时,从80年代到90年代,Hopfield提出了动态神经网络,Schmidhuber和Hochreiter提出带遗忘机制的动态神经网络模型。但那时并不被看好,直到近几年这个模型才逐渐流行开来。2006年以后,Hinton复兴了深度学习,并在语音和图像上取得了突破性进展,深度学习也获得了极大的应用这就是我们说的从神经元的工作机理,到人工神经网络的发展历史。

 

统计和模式识别的发展

统计的雏形是概率和计算而最早的广为人知的统计算法是最小二乘法,它是在1805年由勒让德首先发明的,并在1824年由高斯用误差分析的方式重新阐述以后获得了极大的影响力,是前模式识别时代应用最广泛的算法。

1885年弗朗西斯·高尔顿发明了回归,同时利用数据统计和图形化首次得到了二维正态密度的分布图和相关系数等重要概念,要说现代统计肇始于高尔顿也不为过。

高尔顿赞助卡尔.皮尔逊在伦敦大学学院(UC London)成立了统计实验室,造就了20世纪早期开始的统计学革命。费舍尔(Sir R. A. Fisher)在1936年提出的线性区分性分析(LDA),纽曼,爱根·皮尔逊(卡尔·皮尔逊的儿子)同期提出的似然比检验(Likelihood Ratio Test)则可以称之为现代分类器的雏形。这些概念后来演变成了现代模式识别体系。

1950年美国科学家Abraham Wald系统地将“统计决策理论”阐述清楚。从那时候开始,模式识别慢慢成熟,我们有了很多可用的模型,比如说线性分类器、树分类器,GMM模型,HMM模型等。

这里面特别值得一提的就是条件相关性模型,1985年Judea Pearl提出来贝叶斯网络, 此后,Judea Pearl对图模型的学习、推理等进行了系统性的研究,并解决了一系列数学问题他在科普书(The book of why)中自豪的称自己的工作解决了人类智慧的秘密(寻找事物之间的因果关系),他也因此得了2011年图灵奖。

64045魏思现场演讲

但事实上图模型的学习和推理非常难(数学上的术语是图模型的学习是NP-Hard的),在实际应用中的效果并不是很好。在2006年到2010年期间,以Hinton为代表的人工智能学者发现在用神经网络让模型通过数据和算法自动去获数据之间以及数据和标签之间的条件相关性,可以获得非常好的效果

从上面我们可看到,模式识别也慢慢地发展到了对条件相关性的利用和训练方向上来了。

 

语音和语言的发展

在语音方面我会讲两个方向,语音合成和语音识别。

语音合成在90年代以前都只是实验室的项目,到了90年代后,研究人员发现可以通过预先录制很多的语音,在实际使用的时候把数据拿出来进行拼接来进行语音合成。奇怪的是,这么简单的做法,居然可以获得相当好的效果。但是这样得到的语音连贯度和平滑度不够,所以研究人员设计了很多的启发式的规则和方法,去调整语音合成的连贯度和平滑度。

2000年,日本科学家Tokuda把语音识别中的常用方法HMM用到了语音合成上,提出了新的语音合成方法,虽然在当时它的效果不是很好,但很快人们发现用这种新的方法,在语音合成的效率、平滑度问题上,都有很好的表现。

2016年年Google提出了WaveNet,我们也利用条件自回归模型取得了较大进展。目前,由于利用了长时的相关性,我们的语音合成效果非常棒,语音合成也慢慢收敛到条件相关性上来了。

语音识别历史就更长了,而且更有意思。 1971年JennyBaum发明了HMM,1975年James Baker把HMM用到了语音识别上80年代到90年代,GMM/HMM的EM算法被几个小组(CMU,IBM,Bell lab)重新定义(1977年Dempster就已经从数学上把EM算法做出来了),一批科学家从无到有地将EM算法和HMM语音识别上的整套体系建立起来了。自此语音识别被HMM主导并由于HTK(HMM Toolkit, Cambridge)的出现而得到了大面积的推广。

2010年,Hinton首次提出利用深度网络结合HMM进行语音识别,并和微软研究院俞栋和邓力合作在SWB上获得了相对30%的提升,从此语音识别翻开了新的一页。

综上所述,可以看出语音合成和语音识别也都收敛到条件相关性的数学模型上来了


64088

 

魏思现场演讲

下面,我们来看看语言。

在很早的时候,语言是定性和分析的科学。

到了90年代,随着HMM模型的普及,特别是HMM在机器翻译上的成功应用,语言也进入了统计的时代。

2001年JohnLafferty发明了条件随机场模型,这个模型考虑了特征域和标签域的条件相关性(相比HMM,多考虑了标签域的相关性),由于考虑到了更多的条件相关性,条件随机场的效果好过其他的模型,也获得了大量的应用在2001年之后,条件随机场几乎主导了需要处理动态信息的自然语言处理系统。

2012年,Minklov首次利用(RNN)语言模型取得了语音识别的显著提升,同时他们发现可以利用RNN语言模型生成符合语法规范的句子,而在此之前机器自动生成合乎语法规范的句子几乎是不可能完成的任务。

2015年,Google和Universityof Montreal几乎同时提出了利用编码解码机制去进行机器翻译,再加上注意机制(Attention)的引入,机器翻译在过去的几年间发生了翻天覆地的变化。机器翻译的效果在简单场景下已经达到了人工的水平。而这套模型也是利用了神经网络实现了特征域和标签域的全部条件相关性

由上我们可以看到,语音和语言,也都收敛到了条件相关性模型上了。

 

图像识别的研究进展

图像识别的发展可以分为2个阶段, 2012年之前和2012年之后。

在2012年以前,大部分图像识别类的任务都是在发明非常精巧的算法,或者定义更加复杂有效的滤波器。这些工作虽然比较漂亮,但在实际复杂场景下的推广性不佳,如说人脸识别和物体识别。视觉识别方面(如人脸,物体,物体分割等)的研究也一直没有获得大规模应用。

2012年Krizhevsky和Hinton首次提出了利用多层子卷积神经网络来进行图像识别在2012年的ImageNet比赛上遥遥领先传统方案,以显著优势获得第一名。从2012年以后,深度卷积网络几乎主导了计算机视觉的研究,现在几乎所有的视觉类任务都可以看到深度卷积网络。

为什么会出现这样的现象?实际上所有人工设计的分类器或者特征,都是在试图用人工的方法去找到特征之间的条件相关性,这是非常困难的。

而深度卷积网络让机器通过海量数据自动去提取条件相关性,这样可以发现非常复杂和隐藏的相关性

由此可见,图像识别也收敛到了条件相关性上来了。
64000

 

魏思现场演讲

下一步的发展方向

我讲完了刚才的四个方向,大家会发现在模式识别的各种实际应用领域,模型通通都回归到条件相关性这个数学概念上

唯一的区别是,我们现在找到了非常棒的一个动态模型,它能够比较自然地去描述条件相关性,然后我们再给模型很多训练数据,用基于梯度下降的BP算法去训练此模型,便可以在实际应用中取得很好的效果。

看到这里大家可能要问,这便是人工智能了吗?

不,并不是。

智能和我们现在算法的差距非常远。我们现在的算法是给定了模式、给定输入,通过模型找到模式和输入之间的条件相关性,仅此而已。

64099魏思现场演讲

但是人类的智能是什么?人类的智能并不是在给定的模式下面做分类。人类会新定义模式(发现新模式)、拆解模式(进行模式重组和加工),所有这些都是现在我们模型所不具备的

总结来说,现在的模型可以让我们非常自如地去发现数据中的复杂的条件相关性或者依赖关系。但由于这种关系可能是远距和复杂的,直接利用梯度信号训练,我们需要非常多的训练数据。

现在的模型虽然好,但是它的实现原理和人类机理差别还是很大的。人是通过无监督学习,把所有的结构或者相关性梳理好,然后通过有监督的学习去进行标注和贴标签并不是直接用有监督数据来进行模型训练的(请大家回顾一下小孩子学习语言和进行图像识别和分类时,他得到的有监督数据是非常有限的)。

同时,人类智能更多体现在认知上,也就是从无到有地产生概念和模式,这是机器所更加不具备的。给机器一幅图,让它用有逻辑、有语义的方式来描述这幅图,我们就会发现机器的表现非常糟糕。

这是因为机器只具有模式分类和识别的能力,它不具有概念生成糅合拆解、新概念产生的能力,也就是机器无法深层理解语义并对语义进行加工。

在这些方面我们如何去定义问题?怎么在有限的场景下去部分解决它?我认为这才是我们下一步的方向

来1024生态展区,未来真的触手可及!

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

除了技术与产品,1024开发者节还准备了多个惊喜。会场外,占地约3000平米的生态展区,汇聚了超过50家优秀合作伙伴和A.I.企业,打造了集中式、场景式、浸入式的A.I.应用体验。同时分设主题展、特色展、创新展,向现场A.I.追光者们展示着想象之中、预料之外的奇幻之约。

6433

 

24号当天上午,在1024开幕式致辞之后,安徽省政府副省长何树山带队前往展区视察,科大讯飞轮值总裁陈涛、科大讯飞高级副总裁胡戈宁陪同,并对展区情况做了相关介绍。

6434

 

安徽省政府副省长何树山视察展区

除莅临现场的领导外,还有大到要家人陪着来看机器人产品的老奶奶、小到被工程师父亲带到现场看热闹的七岁男孩,有来自斯坦福设计联盟的外国友人、谷歌lunchpad合作伙伴,还有很多在校大学生,大家都一起徜徉在这片科技的海洋中。展区1000+ A.I.黑科技产品,以人工智能产业集群内优秀合作伙伴产品展示为主,通过合作伙伴生态长廊的现场体验进行汇聚展示,凸显产品种类多样性与性能前瞻性。

6435

 

科技有情怀——中国声谷

主题展以“中国声谷”为主,展示省内智能语音及人工智能技术和产品;同时征集并邀请优秀国内外企业代表参展。特色展以科大讯飞为主,突出智能语音模拟应用和历史声音再现主题,收集并展示世界伟人、历史名人等“声音”,用技术打造一个有情怀、有互动、有感触的特色展示效果。创新展以“中国声谷”为主,展示第一届国际智能语音及人工智能产品创新大赛涌现出的优秀作品。

6436

 

自带30多个合作伙伴——图灵机器人

作为科大讯飞优质合作伙伴的图灵机器人参与了本次1024,并携带着图灵30多个合作伙伴的儿童智能硬件产品亮相。图灵是以语义对话技术为核心的技术型公司,而其合作伙伴们均是接入了图灵的NLP和讯飞的ASR,彰显出了两家公司的“飞图计划”,产品类型则涉及了智能故事机、绘本机器人、智能音箱、儿童智能手表、儿童机器人等产品。

6437

 

在现场,尤以绘本机器人luka baby, 儿童机器人熊卡,好帅豆乐以及富士康生产的Robohon 引发了众多开发者们的围观。和展区各式形态、功能的机器人各显神通,彰显了科技带给我们的乐趣。

携“网红”而来——苏宁智能

苏宁智能成立未久,主要基于苏宁物联网技术、苏宁内容优势及苏宁智慧零售生态,打造服务于家庭及个人消费者的硬件产品及智能生活解决方案。聚焦产品、内容、技术,构建苏宁智能家居平台,并布局智慧家庭硬件产品,打造苏宁智慧家庭生态。

6438

 

10月22日在苏宁易购开售的苏宁小Biu音箱•极智版,也作为本次苏宁智能的亮点产品出现在科大讯飞1024全球开发者节上。它不仅深得第一代网红苏宁小Biu音箱的”真传”,还进行了全面升级,简约机身,250g超轻巧。同时拥有强大的智能语音交互功能和海量的内容资源,呼唤“小Biu小Biu”,可实现影音娱乐、生活服务、儿童陪伴、语音购物、家居控制、百事大全等600多项智能操作。在智能操控方面,苏宁小Biu极智版可智能控制100+个品牌,5000+款智能家居家电,是家中全能型的“神助手”

宣传册被一抢而空——咪鼠鼠标

节日当天,前往咪鼠展区的人员络绎不绝,咪鼠凭借独具特色的互动演示方式以及用更自然的人机交互产品吸引了众多业内人士以及参会人员的青睐,成为当场人气颇高的展位之一。

6439

 

咪鼠展区的互动参与方式更为丰富,智能语音鼠标、U盘等各种精品礼品受到了参会人员的喜爱,在展区的咪鼠宣传册也被一抢而空。咪鼠产品使用了科大讯飞核心语音识别技术和科大讯飞AIUI 3.0技术,在现场热闹嘈杂的环境中也能精准地理解体验用户发出的指令,并在电脑自动展示用户所需,同时,在电脑文档中能通过语音准确快速地完成文字的输入,也让在场的用户体会到了更便捷的人机交互方式。

智能化妆镜——变脸机器视觉

智能化妆镜,通过在传统的镜子内嵌入显示屏、传感器与操作系统,为镜子新增了镜面显示以及人镜互动的功能,还搭载特色的“A.I.化妆师”功能,从而成为了电脑、电视、手机之外的“第四屏”。除智能化妆外,还可为厨房、浴室、美妆、健康搭建智慧生态圈。

6440

 

变脸魔镜结合了语音交互、虚拟助手、AR试妆等一系列前沿技术。基于 “智能镜面显示和交互”技术 、“三维人脸识别与重构”技术,以及人工智能语音交互技术,实现科幻般的终端人机交互,为美业、智能家居等行业应用提供了更多更有趣的解决方案。

现场30分钟开发技能——AIUI开放平台

除外部优秀合作伙伴外,AIUI开放平台也设立了展台。众所周知,AIUI是一套人机对话开发平台,全链路能力包括、语音唤醒、识别、语义理解、合成、翻译等。可以被广泛的应用于APP、机器人、智能家居、智能客服等领域。基于讯飞开放平台的生态圈,AIUI开放平台还提供面向各垂直领域的解决方案,助力终端设备快速拥有人机交互能力。

6441

 

现场,AIUI展台还举办了两场现场语音对话技能开发大赛,命题是在30分钟的时间内,完成一款语音技能的开发,并且根据技能的难度、完成度给出分数并评选出前三名。大赛吸引了现场不少通过AIUI进行开发的工程师,选手们在30分钟内都完成了相应技能的开发,并获得了相关礼品。现场的氛围吸引了众多嘉宾驻足观看,参赛的工程师们还分享了身为开发者的乐趣。

一场别开生面的粉丝见面会——AI大学

从1节课到115节课;从专注A.I.基础技术的技术专业课程体系到目前涉及A.I.商业、A.I.创业的6大完整课程体系;从第1位特聘教授到第55位,人工智能商业化专家吴霁虹、讯飞研究院院长胡国平等不同领域的行业大咖聚集在此。这一次的1024,AI大学迎来了一周年庆。

64426443

 

 

我们曾想过无数次一周年的happy ending,有温馨的、有欢笑的、有调皮可爱的,但没有任何一种版本比1024当天中午的更完美更圆满。来自全国各地200多位的同学聚集在【胡郁校长粉丝见面会】现场,他们中有的是胡郁校长万年骨灰级粉丝,有的是进入AI大学后才入坑的萌新……初次相识的同学们因为胡郁校长而变得熟识起来。胡郁校长发表了热情洋溢的讲话,我们也在现场准备了美味的西点,这一刻,我们铭记并且感恩,往后,正如校长所说:“希望我们最终能够一起不忘初心,踏实前行,我们一定能够赢得我们追光者的未来!”

除此之外,还有可以让你在做饭时轻松聊微信的“魔厨”,可以监测血压、血氧的奇智医养手表,一款无线实时AR眼镜……1024现场,各类人工智能产品让大家大开眼界。来自讯飞智能家居、智能硬件、医疗等众多展台纷纷展示A.I.在相关领域的最新应用。还有来自图像识别、公益、大数据、智能营销、智能翻译等多领域的优秀合作伙伴,如极链科技、大坝科技、小牛翻译、SAP、海德瑞丰等更是让生态展区精彩纷呈,加强了大众对A.I.的认知。

6444

 

经脉宝中医辅助诊疗

 

6445开放平台VR体验

针对如此之多的优秀合作伙伴和产品,展区现场还举行了1024你最喜爱的A.I.产品评选活动,在展台参与投票即可获得超级奖品。最终,法眼察科技、追一科技、大坝科技荣膺前三名。下午时分,锦鲤诞生,价值2999元的讯飞翻译机2.0奖品被一位幸运女孩抽中。这场积聚了我们许久努力的追光者之约,带给你的不仅是神奇,更多的,都是惊喜。

 

6446锦鲤大王

今天,9场分论坛继续惊艳绽放,一起解读了A.I.+医疗、客服、家居、车载的更多可能。你可能没机会或错过了这场盛大的1024之约,没关系,全程视频回放送上,点击阅读原文观赏。1024,明年见!

qrcode_for_gh_f97f0eb2c7e8_1280

为什么让A.I.“顶天立地”需要6个多月?

A.I.面向所有人,也应该服务于所有人。只有这样才能真正实现“顶天立地”。

在A.I.的发展中,专注技术or专注应用?

这从来不是一道选择题。

“技术顶天,应用落地,希望全社会的开发者可以和我们一起开放创新、共建A.I.生态。”——2018年3月22日,在科大讯飞主办的「AI大学·未来课栈@上海栈」,科大讯飞研究院院长胡国平如是说。

640

胡国平院长

同时,他还宣布:首届“顶天立地”iFLYTEK AI开发者大赛正式启动。

6401

 

如今,这场汇聚产学研各界力量,面向全球人工智能开发者发起挑战的盛事已进入决赛阶段,在过去的6个月中,赛事的进展可以说热闹非凡——

1万余名世界各地的开发者参加

全球3千多支团队提交参赛作品

走入3个城市:上海、香港、北京

而在以上现象的背后,是科大讯飞通过iFLYTEK AI开发者大赛,践行“技术顶天,应用落地”所倾注的努力。

1、启动两大赛题,技术、应用都有用武之地

人工智能几十年的发展历史中,「技术和产品」一直都是最重要的2个发展方向。

科大讯飞在本届iFLYTEK AI开发者大赛中,创意性地设置了方言种类识别AI挑战赛以及应用开发AI挑战赛,让致力于利用人工智能技术去落地A.I.产品,或者利用已有积累来优化某项A.I.能力的开发者都有机会展示自己的想法。

6402

方言种类识别AI挑战赛

任务为汉语方言语言种类识别,即根据给定语音,判断该语音属于哪个方言。结果评价指标为分类正确率:即分类正确的语音条数/所有语音条数。

科大讯飞全球首次开放覆盖中国六大方言区,总时长约 60 小时的 10 种汉语方言语音数据集,供参加竞赛的科研单位以及开发者免费使用。

详细介绍

应用开发AI挑战赛

讯飞开放平台开放了AIUI人机对话交互、语音识别、合成、评测、图像识别等多项人工智能技术。聚焦人机交互这一核心技术,邀请广大开发者基于讯飞开放平台开放的人工智能技术,开发一款以人机交互为核心的智能产品(形式不限,APP、机器人、可穿戴设备等)。

所有作品从创新性、实用性、A.I.能力结合度、产品商业前景进行评审

详细介绍

2、为选手开放核心技术与数据

本届iFLYTEK AI开发者大赛集合了讯飞研究院、讯飞开放平台、AI大学的优质资源,面向全球首次开放中文方言语音数据集,开放AIUI人机对话交互、语音听写、合成、评测、翻译、人脸识别、声纹识别等近百项人工智能核心技术。让每一位选手都可以用前沿的技术,实现自己的A.I.项目。

正如科大讯飞副总裁于继栋在本届大赛半决赛阶段的一次赛场致辞所说的:“未来3到5年,是人工智能关键格局定义的窗口期。也是我们广大人工智能创业者发展和进步的好时机。我们将秉持“开放”的心态,一起创新、推动人工智能成果转化,让人工智能真正走到我们身边。”

6403

 

科大讯飞副总裁于继栋

3、坚持A.I.推动公益,赋能各行业

A.I.面向所有人,也应该服务于所有人。只有这样才能真正实现“顶天立地”。这也是科大讯飞在本届AI开发者大赛时的赛题设置以及作品评审时所重视的。

支持方言保护公益

联合国教科文组织统计,世界范围内,每两周就有一种语言消失。

方言是中国地域文化的载体,方言背后,蕴含着文化多样性的精髓,保护方言即捍卫文明,刻不容缓。

在2017年,科大讯飞发起“方言保护计划”,而本届AI开发者大赛的方言种类识别AI挑战赛正是基于保护计划,让广大人工智能开发者共同推进关于方言的算法研究和保护传承。

支持各领域A.I.融合可能

应用落地,不只是某个定向的领域。万物互联的愿景,需要AI赋能可以融入的一切。

应用开发AI挑战赛中,场景+A.I.应用,是诸多作品的核心,无论是上千份作品海选的初赛,还是在上海、香港和北京的32支团队角逐的半决赛,评委们在满足创新性、实用性、A.I.能力结合度、商业前景的前提下,选出与不同领域融合的A.I.创意。力求让人们看到更多领域的人工智能创新成果转化。

6404

 

上海站晋级团队,查看详情

 

6405香港站晋级团队,查看详情

 

6406北京站晋级团队,查看详情

4、为选手蓄能助力

基于AI大学人才培养体系,大赛为所有开发者提供全链路培训和辅导,致力于培养AI专业人才,构建AI产业人才生态。

同时,对入选决赛的团队,科大讯飞组织其来公司参与培训,由专业导师给予指导。

6407

 

决赛选手参观科大讯飞公司展厅

 

6408决赛选手接受专家指导

5、10月24日,“顶天立地”终极角逐

目前,应用开发AI挑战赛的9支团队,方言种类识别AI挑战赛的8支团队进入总决赛。

而等待他们的最终舞台,是将于10月24日-25日,在安徽合肥举行的2018届科大讯飞全球1024开发者节。

6409

 

计算机世界中,1024是2的十次方,是二进制计数的基本计量单位之一,是1KB的字节数,由此组成了程序中最基础的基因序列。

每年的10月24日,“1024”已经成为程序员们共有的文化节日,而科大讯飞则将这个节日固定下来,为全球A.I.开发者及相关生态链创业者、爱好者带来人工智能领域的前沿干货。

了解更多,戳文章:1024 | 这场一年一会的A.I.盛宴,我们想为你照亮未来的模样

 

6410“技术顶天,应用立地”的愿景将如何实现,“顶天立地”的荣誉又将属于谁,都将在本届科大讯飞全球1024开发者节揭晓。

专属福利

点击http://1024.iflytek.com/h5/login?type=vip

即可免费购全球1024开发者节嘉宾票

更多票务问题,

可咨询AI小助手微信号:iFLYTEKAI

1024 | 这场一年一会的AI盛宴,我们想为你照亮未来的模样

国内知名的AI开发者生态大会——科大讯飞全球1024开发者节,期待你的参加!

一个特别的日子:10月24日

一个特有的文化符号:1024

带来一段关于AI的未来预言

10月24日-25日,合肥

“AI追光,智缤纷”

国内知名的AI开发者生态大会

科大讯飞全球1024开发者节

期待你的参加!

每年的10月24日,“1024”已经成为程序员们共有的文化节日,而科大讯飞则将这个节日固定下来,为全球AI开发者及相关生态链创业者、爱好者带来人工智能领域的前沿干货。

如果你是第一次知道1024开发者节,正在犹豫是否参加的话,本文将消除你的疑惑。

640

 

首先,我们为你展示改变世界的可能

1、理念篇

关键词:领军人物

AI商业化专家吴霁虹、斯坦福大学教授蒋里、科大讯飞董事长刘庆峰、AI大学校长胡郁、讯飞华南公司总裁杜兰、智慧医疗专家陶晓东、科讯投资部总裁徐景明、MIT35岁以下科技创新青年魏思等AI领袖齐聚本次科大讯飞全球1024开发者节,你将能够与AI大咖们面对面。

关键词:AI、行业、风口

当下,AI与各行业的融合每天都在发生,AI将对我们的生活方式产生了哪些改变?如何在AI+行业的环境下寻找机遇?围绕10多个AI+行业场景,本届1024开发者节将在10月25日举行深度分论坛。业界知名的资深大咖将与大家分享AI时代的见解。

AI+金融无论你是金融工作的从业者,还是关心金融领域的普通人,都不能忽视人工智能将对金融科技带来的巨变。我们将在AI+金融分论坛邀请银行、保险、证券、基金、互联网金融、科技等相关企业领导负责人和金融科技专家、学者出席。探讨金融科技所面临的机遇与挑战。AI+客服你是否想过,在日常生活中当你打电话咨询电话套餐、查询银行业务等时,话筒另一端提供语音服务的是人工智能呢?在AI+客服论坛,你对于AI如何提供客服,如何保证更好体验,以及如何获取和剖析数据等问题都将得到解答。AI+机器人

机器人应用逐渐落实到各个细分领域,智能家居,儿童教育,物流送货等等领域,其发展情况如何?行业痛点在哪?在AI+机器人分论坛上,行业专家,优秀企业共聚一堂,共同探讨产业落地,行业前沿应用。

AI+城市

在AI+城市分论坛,将重点介绍人工智能小镇,构建以人工智能为核心的完整产业链条,形成“AI+”的产业生态簇群,体现规模效应与集聚效应,并结合产业资源优势,落地重点产业。

AI+营销

AI+营销分论坛上,行业大咖将从探讨软硬件、平台和算法等人工智能领域的最新洞见,带来AI营销赋能主题演讲;同时将启动讯飞AI营销云流量生态联盟赋能计划,进行2018科大讯飞AI营销算法大赛颁奖。

AI+医疗

智能问诊、语音电子病历、医疗影像分析……AI将如何赋能医疗行业?改变我们的就医习惯?想紧跟未来的医疗行业趋势,就来AI+医疗分论坛。我们将发布讯飞医疗人工智能辅助诊疗平台,邀请合作伙伴共同展示智慧医疗平台生态战略。

更多分论坛,等你现场探索……

2、技术篇

关键词:前沿无处不在

智能穿戴、身份认证、AI大数据、智能识别……领先的人工智能技术在你进入会场后就如影随形,小到工作人员给你的小礼物,大到你身边的任何一件设备,可能都暗藏玄机。

关键词:1000+黑科技

科大讯飞集结自己的生态合作伙伴,展示超过50个展位的前沿AI落地产品和服务。覆盖企业服务、图像识别、健康医疗、公益、大数据、智能家居、机器人、智能营销、智能招聘……

AIUI、讯飞医疗、AI大学、智慧城市……科大讯飞各产品、平台、事业群将带来最新成果,从大型电信级应用到小型嵌入式应用;从手机到车载;从家电到玩具,你将体验能够满足不同应用环境的各种惊喜。

不仅如此,你还可以为黑科技打分,我们还准备了“评选你最喜爱的AI产品”线上活动,超值福利等你来赢取哦!

同时,我们赋予你向未来冲刺的能量

3、赋能篇

关键词:1024计划

2017届全球1024开发者节,我们推出“1024计划”,从“AI教引”、“AI生态”、“AI公益”三个方面,为开发者的事业提供辅导支持,为公益事业贡献AI的力量。

回顾:重磅 | 科大讯飞发布《1024计划》,AI点亮全球

今年开发者节,我们带来赋能规模更大,扶持力度更强的全新“1024计划”,如果你想为自己的AI梦想注入能量,一定要来到10月24日的现场。

关键词:“智汇世界,声动未来”

2018年,科大讯飞全球1024开发者节,我们将联合“智汇世界,声动未来”首届世界声博会共同举办。进一步推动安徽智能语音及人工智能产业发展,将“中国声谷”打造成全国智能语音领域产业发展高地。

首届世界声博会暨科大讯飞2018全球1024开发者节活动由部省共同推进安徽智能语音产业发展领导小组办公室指导,中国语音产业联盟、中国智能写作产业联盟主办;科大讯飞股份有限公司、安徽省信息产业投资控股有限公司等承办。汇聚智能语音及人工智能行业的最具影响力的专家、学者与企业,展示技术发展与创新创业的成果。

4、扶持篇

关键词:实力派,PK

科大讯飞2018年面向全球正式发起首届“顶天立地”iFLYTEK AI开发者大赛。历时4个月,大赛吸引了1万余名世界各地的优秀开发者踊跃参加,共计收到全球3千多支团队提交的参赛作品。经过层层考验,应用开发AI挑战赛的9支团队,方言种类识别AI挑战赛的8支团队进入总决赛。

1024开发者节当天,在iFLYTEK AI开发者大赛的决赛现场,你不仅可以观看拥有各自领域顶尖实力的大牛们各显神通,还将抢先一步了解科大讯飞对AI开发者们的最新扶持与赋能策略,发现机遇!

关键词:公益明星,献声AI

AI面向所有人,也应该服务于所有人。2017届科大讯飞全球1024开发者节发布了「三声有幸」AI 公益计划,把人工智能和公益相结合,用AI改善公益慈善活动的实施过程和效果。

2018届科大讯飞全球1024开发者节,将继续支持「三声有幸」计划,举办AI公益音乐节,盛邀罗琦、牛奶咖啡、安子与九妹、张晓钰、和平饭店作为公益音乐人亲临,为AI献声!以歌声传达鼓舞人心的力量,用音乐唤醒人们对公益的认知。另外,现场还将有“公益天使”带来的意外惊喜!

多样的世界,需要多样的声音。音乐节还将带来“方言表演秀”——用不同方言所演唱的歌曲串烧节目,以此支持科大讯飞“方言保护计划”,提高民众对方言的关注度和兴趣,体现科大讯飞将借助人工智能技术为民众提供更好的方言使用条件的愿景!

注:本次AI公益音乐节所有门票收入将全部用于讯飞“三声有幸”公益计划。

购票通道现已正式开启!

2018届全球1024开发者节官网已正式上线,票务系统已正式启动,开启贵宾票、嘉宾票、学生票、音乐节票,为你提供丰富选择。

点击此处http://1024.iflytek.com/?ch=kdxf即刻进入购票!

641想了解更多关于票务及优惠方面的信息,可添加AI小助手微信号:iFLYTEKAI,或扫描下方二维码关注【1024开发者节】642

普通话二级甲等? 可我们数学老师明明n、l不分啊

论智能语音技术发展的必要性和紧迫性……

又是一年开学季,莘莘学子们又背着书包,生机勃勃 垂头丧气 地回归校园了。

可爱 逗比 的同学,敬爱 严厉 的老师,还有丰富多彩 苦逼哈哈 的校园生活,哇,想想还有点小期待呢。

q1

话说,自从上学以来,有件事一直很觉得很奇怪——许多老师的普通话水平测试到底是怎么通过的?

因为他们有的是这样:

q2

有的是这样:

q3

还有这样的:

q4

然后后来我知道了一件事,就是:从前的普通话水平测试,是人工测试的,并不是条件严苛的机测,所以出现人为误差的可能性比较大。

q5

也就是说不排除,当年的某个考场里,对话场景是这样的——

考官:请约读下面的文脏段落,zu意语速不要过快。请开死——

考生:绳命,是多么的回晃;绳命,是入刺的井菜······

考官:嗯阔以。下一题······

于是再对照中学数学老师的口音,恍然大悟。

哈哈,开个玩笑。不过人工语音测试的日子确实已经一去不复返了。

随着智能语音技术的出现和发展,机器评测在普通话水平测试、英语四六级等考试中愈发广泛地应用,直到现在的口语考试已基本全面实现机器测试。希望考官手下留情、睁一只眼闭一只眼的考生们,可就再也行不通咯。

q6

普通话水平测试机测考场

相比于人工测试,机器测试的优势非常明显:省时省力、评价标准更加规范统一、避免不必要的重复劳作等等,可以说是人工智能语音技术在教育领域一项非常成功的应用了。

09

超过80%语音开发者的共同选择