AI服务市场618 | 亿万服务,钜惠来袭!

AI有玩,优惠没完!

号外!号外!618全球年中购物节开始啦!此刻的你,是不是推着堆得满满的购物车正准备下单结账呢?

1

且慢!

大家不要忘了还有一个重量级的会场,那就是讯飞开放平台618钜惠大放送!

7折明星产品、海量大额优惠券、精品解决方案、服务市场周年惠……超多AI能力优惠大放送!

下面,就让我来为大家解读这份讯飞开放平台最全最省的618抢购攻略!

2000¥无门槛优惠券

为开发者和企业谋福利,我们是认真的!

总价值2000元的无门槛优惠券大礼包双手奉上,100元、200元、300元任你组合,多买多划算。还不快揣进口袋!

1.  优惠券产品,肆意折上折222

2.  领取方法

关注“讯飞开放平台”微信公众号,在后台输入:618#您的11位手机号,即可领取2000元粉丝专属无门槛优惠券,享折上折优惠,下单即减。

3.使用说明+有效期

  1. 优惠券自动发放至用户账户,用户可在控制台—财务中心—优惠券查看。使用时,需用领券的手机号登录讯飞开放平台官网;
  2. 优惠券在提交订单时抵减相应金额,每张券仅可使用一次,不可提现、转赠;
  3. 若发生订单退款,仅退还实际支付部分,优惠券抵扣金额不予退款;
  4. 活动时间:2019年6月14日-7月15日
  5. 本活动最终解释权归讯飞开放平台所有。

AI能力狂欢购

 1. AI明星产品 

语音转写识别准确率98%,机器翻译2.0支持含英、日、韩、法、西、俄等100多种语言翻译,语音听写输入速度达180字/分……

长期以来,这些能力都是开放平台备受欢迎的明星产品,当然也是本次大促的重头戏——

333

 2. 图像处理专场 

除了备受青睐的语音产品,为了满足大家在不同场景下的多样需求,本次开放平台618还开辟了图像处理专区——

444 3. AI离线+硬件专场 

智能硬件将软硬件结合,对传统设备进行改造,拥有智能化的功能和 “云+端”的典型架构。而这一次,我们也将在“AI离线+硬件专场”中进行优惠放送——

555

精品解决方案优惠放送

除了单点能力以外,本次还有一大波精品解决方案的优惠放送。针对项目中的出现的需求、不足、缺陷等,提出一个解决整体问题的方案,帮助企业快速有效地实施操作。

666

AI生态扶持大礼包

除了单点能力和解决方案,本次的开放平台618还有生态扶持的加码,以诚挚回馈辛勤工作的开发者们!

我们为全体开发者提供AI生态扶持大礼包,服务量免费赠送,接入即可获取免费服务。

777

服务市场周年钜惠

讯飞AI服务市场是国内首个人工智能全产业链综合服务平台,旨在整合AI产业上下游链路,构建以人工智能为核心的产业生态圈。9年来,讯飞开放平台不断开放和迭代近90项核心技术,2019年平台对外开放的服务能力将达到200项。本次开放平台618,服务市场也为用户提供了许多直接可用的AI产品,有需求的用户可直接在官网进行咨询。也欢迎购买了开放平台能力的开发者加入我们,入驻成为服务商。

好啦,介绍了这么多,事不宜迟,现在扫描下方二维码,开始买买买吧!

8


研究所二维码

机器翻译2.0升级上线:支持自定义,100+语种互译秒级响应!

能力星云计划的优秀AI服务合作伙伴——小牛翻译,与讯飞开放平台全面合作!

划重点:科大讯飞能力星云计划的优秀AI服务合作伙伴——小牛翻译,与讯飞开放平台全面合作,直接对接小牛翻译云平台,带来机器翻译2.0升级!支持100多个语种之间相互翻译!现在开通接入即送200万字符免费服务!戳一下了解详情:机器翻译

2000种以上。

这是全世界正在使用的语言数。预计2020年,语言数据量更将达到35ZB同时,一带一路战略带来跨境电商交易量上升,人类的日常交流跨越国界,呈现全球化趋势。

以上种种都推动翻译服务的需求急速增长,但面对多样的语种和庞大的交流信息,单纯依靠人工已无法满足翻译的即时、高效等要求。

所以,机器翻译迎来了巨大的市场机遇。

此前,科大讯飞能力星云计划的优秀AI服务合作伙伴,小牛翻译提供的机器翻译能力在讯飞开放平台上线,支持英、日、韩、法、西、俄6种语言与中文双向互译,受到广大开发者的一致好评!

现在,讯飞开放平台与小牛翻译进一步展开全面合作。与小牛翻译的云平台直接对接,带来机器翻译2.0!支持100多个语种之间的相互翻译!

机器翻译2.0的全新优势

本次开放平台上线的机器翻译2.0能力,不仅搭载了应用最新技术的神经机器翻译引擎,更在翻译自由度、准确度、隐私性、功能开发等层面带来强大优势——

支持100+语种

机器翻译2.0支持100多种语种之间相互翻译,覆盖全球98%的人口。

自定义翻译随心所欲

2.0版本加入了小牛翻译的术语词典功能,支持用户添加自定义术语,大幅提升机器译文中术语翻译的准确性和一致性。同时还加入了小牛的翻译记忆库功能,用户可将人工翻译的正确译文实时添加到记忆库中,避免机器翻译重复犯错。

秒级速度+精准高质

机器翻译2.0使用多语种机器翻译引擎,它由小牛翻译自主研发,应用海量语料,通过深层网络训练,让2.0的用户享受准确性高,秒级响应速度的卓越翻译品质。

支持局域网,保护隐私

本次2.0新增了本地私有部署。构建机器翻译私有云,可以在局域网内使用翻译能力,保障翻译数据安全,支持私人定制。

可开发,功能集成便捷

支持API开发接口,基于HTTP协议的翻译API接口,用户可以很便捷的集成嵌入到自己的业务平台或其他应用中。

行业垂直领域模型

机器翻译2.0增加了小牛支持垂直(特殊)领域翻译效果优化的优势,针对用户的特殊领域需求,结合行业特点与待翻译数据特性,可以通过用户翻译内容的行业领域,分析行业特点、待翻译文本的特性,实现翻译的特殊定制与优化。

让优质翻译体验在更多场景中落地

如文章开头所提到的,随着跨国交流场景的飞速增加,机器翻译将迎来大量应用场景。而机器翻译2.0在讯飞开放平台的上线,将让开发者能实现更多性能升级,体验优化的翻译新产品的落地。

1.外文资料/文档处理

工作或者科研学习中,要应对大量的外文材料、书刊杂志、电子资料,尤其是在小语种领域一直缺乏优质的翻译应用,而机器翻译2.0将成为更多语种翻译应用的开发提供支持。

2.电子词典的优化升级

机器翻译2.0可为电子词典类应用赋予语种增加、个人定制等功能优化。

3.学习辅导

用于语言学习类APP和程序的开发,让其在同类成品中具有语种多、速度快等优势。

4.社会调研

基于机器翻译可以开发面向各类生僻语种的翻译工具,为学者在全世界的偏远地区进行科考、采访与社会观察时提供与当地人交流的辅助工具。

5.线上跨国贸易

基于机器翻译2.0,可以开发多语种实时翻译的应用,保证跨国商业活动中来自多个国家的、母语不同的代表们无障碍无延迟沟通。

同时,机器翻译和其它AI能力的结合,也为开发者的产品研发带来更多的想象空间。

1.拍照翻译

在国外旅行时,遇到指示牌/路牌、餐馆菜单、商品标签、入境卡等多种场景量身定制。利用印刷文字识别+翻译,随手一拍,翻译内容即刻显示。

2.AR导游

展馆和旅游景点如今都在升级游览体验,将线上虚拟场景与线下实际体验结合,提高了趣味性。通过AR技术+翻译,可以让游客对景点的理解更生动酷炫。

升级背后:能力星云合作伙伴的强大支持

机器翻译2.0版本的优秀表现,离不开科大讯飞能力星云的优秀合作伙伴——小牛翻译的支持。

2

除了自研能力,科大讯飞与业内优秀的技术厂商进行战略互补形式的合作。带来能力星云计划。在能力星云中,AI服务合作伙伴通过讯飞开放平台的桥梁,为更多的AI开发者和爱好者提供服务,让技术为在更多场景中落地,为各行业赋能。同时拥有宣传、商机对接、开发者资源共享等服务。

小牛翻译(NiuTrans)团队核心成员来自创立于1980年的东北大学自然语言处理实验室,专注于语言分析和机器翻译技术研究,拥有三十九年技术研究积累。

作为人工智能领域的重要分支,如今的神经机器翻译,翻译效果优于基于规则的机器翻译、统计机器翻译。而小牛翻译以神经机器翻译为主框架,融合规则方法和SMT方法,打造最好的机器翻译“发动机”,支持118种语言互译,包含七大民族语言,覆盖全球98%的人口。“让社交像在母语环境中一样自在。”小牛翻译创始人朱靖波说。

未来,能力星云将让厂商的实用级核心技术陆续与讯飞的核心能力一起,汇聚成AI能力的星云,释放巨大的组合效应!

来官网进一步了解吧!

机器翻译

现在开通接入即送200万字符免费服务!

二维码动态

它陪跑《名侦探柯南》数十年,终于在科大讯飞C位出道!

拥有一个变声领结,我就是整条街最靓的小侦探!

那部传说中的作品又Lei了!
作为每年的固定节目,《名侦探柯南》的最新剧场版《绀青之拳》已经于上个月在日本上映。相信在国内的视频网站和影院欣赏这部新作也指日可待。虽然剧情逻辑愈发沙雕,但小智仍然会为信仰充值!

1

然鹅——

2

什么?!这么重要的道具竟然没了?要知道小智从小到大,看柯南就是眼馋那几个“大宝贝”——

某领结,

3

某手表,

4

以及某球鞋,

5

像尔等没有柯南智商的路人,只能幻想拥有这几样“神器”装装逼了,现在连这点乐趣都要被夺走咩~(可怜)。

6

还好,有科大讯飞2019新品发布会,给我带来安慰!

因为,科大讯飞董事长刘庆峰带来了三次元的真·变声领结!

7

1.变声技术亮相,今天就做整条街最靓的「柯南」

发布会上,现场出现志玲姐姐、老罗等“神秘嘉宾”。但只闻其声,未见其人。而这些声音其实都来源于科大讯飞董事长刘庆峰。

8

从二次元走入现实,一个人如何做到多种声音转换?这就要归功于科大讯飞的最新”变声技术”。该技术可以将原声的节奏、情感,以及特定人的音色进行转换结合,并且支持不同性别的声音转换。实现了接近100%的声音复刻,真实自然。

其实这项音色转换技术早在voice conversion Challenge 2018国际音色转换大赛中获得全部指标第一名;是音色和相似度上唯一一家超过4.0MOS分的系统!

刘庆峰提到,人工智能要持续发展,最核心的是它的价值观如何阳光健康、与人为善。

2.A.I.主播登场:一位会说七国语言的女神

除了变声技术,本次新品发布会还有一件让二次元粉丝欢呼的事:看多了初音、绊爱等动漫风的虚拟主播,大家见过真正能说会道,几乎与真人无异的虚拟主持人嘛?还是知性美女姐姐哦!

9

本次发布会,就邀请来了一位特别的主持人,她叫小晴。其特别之处就在于她不是真人,而是由人工智能技术合成的A.I.虚拟主播。

10

早在2018年3月,科大讯飞就与南方财经全媒体集团联合打造了一款用于财经新闻的播报的A.I.虚拟主播,这也是讯飞虚拟主播的首次公开亮相。后来,讯飞又陆续推出了A.I.虚拟主播“康晓辉”、“央小广”、“小撒”、“纪小萌”、“小晴”等等。

11

虚拟主播的表情和声音都是预测生成的。先输入播报内容,通过科大讯飞的语音合成技术进行合成,然后利用多模态合成模型基于语音驱动表情序列生成对应的表情序列,再经过语音驱动模型的训练,最终形成我们现在看到的A.I.虚拟主播。

12

这种语音合成技术只需要10段话或5分钟的声音样本,就可以模仿任何人说话,产生极高还原度的“智能声音”。

当然,作为新品发布会,小晴的能力相较于之前也有了新的发展,那就是成功升级为多语种A.I.虚拟主播!

发布会中,小晴在线上同步直播以中文、英语、法语、日语、韩语、德语、西班牙语等七国语言以及维语、藏语两种民族语言播报,使得本场发布会成为了全球首场人工智能多语种直播发布会。

4

3

3.神器背后:iFLYOS 2.0的A.I.生态蓝图

在变声技术炫技时,刘庆峰说未来讯飞的这项技术将可以集成到芯片上,搭载在各类智能硬件设备中,让直播、陪护、娱乐、游戏、车载等领域都有语出惊人的玩法。

而这所依托的,就是讯飞的AIoT万物互联生态。在本次的新品发布会上,科大讯飞就推出了AIoT操作系统iFLYOS 2.0。

00

iFLYOS 2.0具备“人性化交互”、“深度自定义”、“端到端集成”、“高效率开发”四大特点,为开发者提供软硬一体的智能硬件解决方案和强大的集成开发环境(iFLYOS Studio);为消费者提供流畅的交互体验和多样的场景服务。

同时iFLYOS 2.0突破行业桎梏,在开放度上进一步提升:

1.企业级开发者可以使用自己的用户体系;

2.利用技能工作室,开发者可以集成自己的各种服务;

3.在唤醒词、发音人、GUI等方面,开发者都能将自己的品牌元素融合。

这三大功能,将让开发者完全能基于iFLYOS开发一个真正属于自己的智能物联网操作系统。

4.新品连发,B+C技术价值加速兑现

作为蓄力一年之久的发布会,讯飞还是准备了很多“大餐”的,变声技术和虚拟主持还只是开胃菜而已~~

16

比如讯飞翻译机3.0,能0.5s内完成一次翻译,而且中英文识别率超95%,这还是在离线环境下!不好意思,在陪你走遍全世界方面,我不是“996”,我是“007”啊!

17

还有像动作大片里的机密手提箱的讯飞转写机,可以领导这边说,稿件那边自动出!1小时录音5分钟出稿,并能为视频文件实时生成配套字幕,随画面一起输出。

18

还有具有充满时尚艺术感的颜值的讯飞智能录音笔,2+6 麦克风阵列配置,收音距离可达15 米。配备触摸屏幕,满电状态下可连续工作10个小时。

19

还有手写质感、1秒录音成文、可安全储存的讯飞智能办公本;具备语音评测和语音转写功能,在不同学习阶段都能反馈清晰展示学习情况的讯飞学习机。

关于这些新品的完整介绍,可以看我们之前的文章:戳这里

正如刘庆峰所说,2019年是人工智能应用价值的兑换年。而真实可见的实际应用案例;能规模化推广的对应产品;可用统计数据证明的应用成效。将是判断AI技术价值兑现的三大标准。

发布会推出的新品也正不断地应证着以上三点,让我们的沟通、办公、学习“因A.I.而能”。未来,变声领结等A.I.神器真正像水和空气一样在我们生活中无处不在。

不过,小智更关心的只有一件事:

既然变声领结都有了,干脆也把手表和球鞋也出一套呗!顺便再给我专门配一个“小晴”。

20

科大讯飞:我们和华为基因相似,板凳能坐十年冷,如今向C端强劲发力

2019年,讯飞要兑现AI应用红利。

11


【导读】To B业务已稳,科大讯飞瞄准利润更大、规模更广的C端市场开始发力。在5月21日的年度发布会上,讯飞重磅发布了5款面向消费者的硬件产品,其中讯飞翻译机3.0能实现0.5秒闪译。坐穿十年冷板凳,不断积累技术经验,这支“AI国家队”终于要实现AI应用红利兑现。

向C端强劲发力,瞄准用户规模更大的消费者市场,AI应用红利得以兑现。

这是“AI国家队”科大讯飞正在探索的新路。与互联网不同,在人工智能领域中,To C业务反而未经大范围开拓。

不变的是,先布局的玩家,先占据优势。

5月21日,在上海世博举办的年度发布会上,科大讯飞大秀技术肌肉,针对用户痛点发布6款新品,其中5款为面向消费者的硬件产品。

其中包括能实现0.5秒闪译、支持四大方言与英文互译的讯飞翻译机3.0,售价3499元;以及一小时录音5分钟出稿的讯飞录音笔,分为1999元和2999元两个版本。

今年是科大讯飞成立20周年,恰逢国际贸易摩擦升级的历史关卡,讯飞表示要在技术上未雨绸缪,做好十年磨一剑的准备

 

科大讯飞董事长刘庆峰:20年不断累积,AI技术价值今年将开始兑现

与往年发布会流程相似,发布新品前,科大讯飞董事长刘庆峰进行开场演讲。

与往年发布会有所不同,这是全球首场人工智能多语种直播发布会

开场的“AI虚拟主播”主持人便吸引了不少人的眼球。不仅如此,这位虚拟主播还同时支持多语言同步报道。

3

AI虚拟主播进行韩语报道

4

虚拟主播藏语报道

技术肌肉秀不止于此,随后科大讯飞董事长刘庆峰亲自表演了一场类似“柯南领夹”的AI变声秀。

刘庆峰登场进行自我介绍,一开口,现场却传出来的是“老罗”罗永浩的声音,“大家好,我是科大讯飞刘庆峰”,刘罗难辨。

不一会儿,他的声音又开始变成清脆的女声,虽然是志玲姐姐的声音,但说活语气、节奏却和刘庆峰本人完全一致。

这背后正是运用科大讯飞的音色转换技术,可通过提取原声语音中的内容信息,包括原声的节奏和情感,再结合特定人的音色进行转换结合。

该项技术在voice conversion Challenge 2018国际音色转换大赛中获得全部指标第一名,也是音色和相似度上唯一一家超过4.0MOS分的系统。

另外,在嘉宾的同时,舞台旁边都有“讯飞听见”直接进行现场实时语音识别并准确呈现出来,同时机器自动将讲话内容翻译成英文。

55

嘉宾演讲过程中,讯飞听见一直进行实时语音识别和英文翻译

这其中的技术又有了革新——科大讯飞采用自主研发的新一代语音识别模型,实现了中英文语音混合输入,识别无缝切换,且识别率达到95%以上

关于所谓的中英文语音混合输入,举个例子:

“看最后一集Game of Thrones了吗,囧雪竟然做出了这样的事儿,很bad很sad很drama。”

有了这项技术,不管“讯飞听见”有没有被剧透,它都能准确识别并且翻译你说的话。

 

除此之外,刘庆峰还介绍了科大讯飞在国际上取得的技术突破:

  • 语音识别:语音识别准确率全面超过速记员。目前,科大讯飞的中文语音转写准确率已经突破98%,英文达到95%。
  • 机器翻译:系统通过CATTI全国翻译专业资格(水平)测试,达到专业资格合格标准;让更多“语言间的高效沟通”成为可能,让机器翻译能力确有保障。
  • 机器阅读理解:2019年3月,机器阅读理解国际权威评测SQuAD 2.0任务科大讯飞再次登顶冠军,并同时在EM和F1两个指标上全球首次均超越人类水平,一举创下比赛的全新纪录。

66

2019年伊始,不少人认为这将是大量人工智能创业倒闭的时候,大潮退去,泡沫破灭,因为人工智能并没有核心技术。

对于这样的论调,刘庆峰在现场明确表示:“2019年就是人工智能的应用价值兑现年,今年开始真的红利已经到来。”他提出了A.I.技术价值兑现的三大标准:

一、真实可见的实际应用案例

二、能规模化应用的核心产品

三、能够统计数据的应用成效

技术肌肉已秀,接下来让我们看看实际落地、将要帮助讯飞获得红利的硬件新品:

 

新品强劲发力C端:讯飞翻译机3.0实现“0.5闪译”,售价3499元

讯飞此次一口气发布5款消费者硬件产品,覆盖生活、工作、学习等方面,每一款都针对消费者痛点。

先来看下讯飞翻译机3.0。

说话是世界上最常见的事情,又是世界上最不简单的事情,不同国家之间语音不同,不同的省份地区也有着各自的方言。

然而一个人精通多种语音需要花费大量的时间和精力,就像刘庆峰在现场所说的那样“不可能每个人都是钱钟书转世”,但AI让不可能变成可能。

讯飞翻译机3.0全新升级,翻译速度达到“0.5秒闪译”,实现清楚拾音、响亮外放和智能识别多音多义词。

77

讯飞翻译机3.0

对消费者更实用的是支持多种语言互译,讯飞翻译机3.0支持普通话与粤语、东北话、河南话、四川话等翻译,及粤语和英语互译、维吾尔语与普通话互译、藏语与普通话互译

其中的英语,不仅限于标准的英文发音,在现场演示中,讯飞翻译机3.0能将带有咖喱味的、法国奶酪味的、德国啤酒味的、俄罗斯伏特加味的英文统统翻译成标准的普通话。

另外,继去年首发行业A.I.翻译功能后,讯飞翻译机3.0实现金融、医疗、外贸、计算机、法律、体育、能源七大领域的A.I.行业翻译。

除此之外,翻译机3.0还优化了拍照翻译功能,升级高清摄像头和视网膜屏,出国旅游看不懂菜单的尴尬将不再出现。

拍照翻译采用科大讯飞最新国际领先的OCR技术,该技术去年包揽ICPR 2018国际大赛全部三项冠军。刘庆峰表示,科大讯飞为何开始做图像识别?因为语音识别和图像识别的底层算法是相通的。

相比于讯飞翻译机2.0(售价2999元),翻译机3.0售价为3499元

接下来是另一重磅产品:讯飞智能录音笔,这也是讯飞5款硬件新品中,价格最低的一款,分为1999元标准配置和2999元两款,来看下性能:

88

  • 采用2+6麦克风阵列顶级配置,2颗哈曼大直径麦克风和6个矩阵麦克风位列机身;
  • 收音距离可达15米;
  • 语音识别准确率达到98%,1小时录音5分钟出稿
  • 支持语音实时转文字、中英边录边译、要点标记、语音搜索、多平台同步和后端编辑功能。

除此之外,还有针对办公所出的讯飞转写机、讯飞办公本,以及针对教育所处的讯飞学习机,这三款价格均高于3000元:

99

新品展示:左上为讯飞智能办公本、左下为讯飞转写机、右上为讯飞录音笔,右下为讯飞学习机

商务人士的专属:讯飞转写机是一体化的专业语音转文字设备,面向会议、培训、讲座等场景下可实现实时转写、纯离线识别、识别内容翻译成英文投屏展示,同时可为视频会议实时生成配套字幕输出,会议、演讲结束后可自动生成二维码回看PPT、文稿和录音。

可书写的智能办公本:讯飞智能办公本拥有10.3英寸E ink高清柔性护眼墨水屏,即时语音转写文字、智能语音搜索、一键分享查看编辑、收发邮件手写亲笔信等功能,售价4999元

辅导数理化的学习机:讯飞学习机,针对数理化、英语听说读写进行提升,售价3999元。

 

iFLYOS 2.0来了:开放超200项核心技能,未雨绸缪以备十年磨一剑

除5款针对C端的硬件产品外,科大讯飞在本次发布会发布iFLYOS 2.0,开放超200项核心技能。

iFLYOS是什么?它是科大飞讯于2018年推出的一套基于云端的智能物联网操作系统。

00

2018 年讯飞开放平台相继发布了人机交互界面 AIUI3.0和iFLYOS形成端到端解决方案和实现路径。

到现在,全新升级的iFLYOS 2.0将AIUI与iFLYOS融合为一体,打造出以语音为主要交互形式,以智能硬件为载体,融合云端与终端的AI Agent(智能物联网操作系统)。

当谈到日前美国将华为列为“实体名单”一事,讯飞表示华为早就未雨绸缪,有“备胎”顶替。身为国内AI代表企业,讯飞认为中国企业应该为未来备战,除了智能通讯,AIoT也是其中一个方向。

科大讯飞在2017年就同BAT并列为“国家新一代人工智能开放创新平台”四大金刚,入职“国家队”。这次iFLYOS2.0的亮相亦是讯飞为维持原创技术系统、先行布局AIoT买的一份“保险”。

全新升级的iFLYOS 2.0将AIUI与iFLYOS融合为一体,打造出以语音为主要交互形式,以智能硬件为载体,融合云端与终端的AI Agent(智能物联网操作系统)。

科大讯飞轮值总裁胡郁介绍,它具备“人性化交互”、“深度自定义”、“端到端集成”、“高效率开发”四大特点

01

为解决接入方SDK集成慢,语音能力接入复杂,硬件设计链条过长的问题,iFLYOS直接提供SDK和API,并有芯片、PCBA公版和整机参考设计等解决方案供接入方选择。

一方面为开发者提供高度集成的软硬一体化智能硬件解决方案和强大的集成开发环境;另外一方面,也能为消费者提供流畅的交互体验和多样的场景服务。

 

讯飞即将“弱冠”:出鞘消费者市场,技术成熟才能做C端产品

此次科大讯飞全面发力C端市场,事实上早在去年就有迹象。

今年4月,科大讯飞公布2018年度财报,其中一大亮点就是该公司业务赛道加速奔跑,To C业务增长迅猛。

02

科大讯飞2018年度财报

2018年,讯飞TO C业务开始发力,占比显著提升,全年实现营收收入25.17亿,同比增长96.54%,在整体营收中占比达31.80%;实现毛利12.96亿,同比增长70.77%,毛利占比达32.72%。

在产品方面,讯飞翻译机2018年卖出30万台,占据品类销售额70%,品类份额第一;讯飞输入法活跃用户超过1.3亿;以讯飞听见为代表的移动网产品及服务较上年同期增长369.36%。

如果说移动互联网的主战场正从上半场的消费互联网(To C),向下半场的产业互联网(To B)方向转变。

那么,AI领域正好相反,被称为“人工智能国家队”的讯飞早早就布局To B业务,实现智慧政法、智慧医疗、智慧教育等业务的突破。

03

科大讯飞轮值总裁 胡郁

而人工智能To C市场此前难以进入的僵局如今正有被打破的迹象。据科大讯飞轮值总裁胡郁透露,当科大讯飞刚成立的时候,他们也做过一款面向C端的统一输入法,但结果很不成功。

胡郁解释称,要做C端产品的,基本上都是做产品创新和模式创新的公司,所用的技术一定是成熟的。就像当年的互联网创新,技术上都是成熟的。但如果是做核心技术创新的公司,一开始就做C端的话是很困难的。

那么科大讯飞决定发力C端的真正原因是什么?

人工智能技术已经走向成熟,AI将实现应用红利兑现。

胡郁具体解释了其中原因:

  • C端有足够大的利润空间,有更广泛的市场规模,而在人工智能方向的To C,目前市场潜力仍非常大,讯飞跟很多的公司处于同一个阵地、同一个起跑线;
  • 想要把最好的技术展现给用户时,需要做完整的事情,讯飞有足够的技术积累,将技术从软件到硬件、完整地呈现给用户。

20年的技术累积终于将讯飞强势带入了C端的战场。

 

科大讯飞轮值总裁胡郁:我们和华为有着相似基因,都曾坐十年“冷板凳”

最后当谈转向C端面临的挑战时,胡郁表示:科大讯飞在源头核心技术、系统创新上都占据优势,但最终做成C端的最重要一环——模式创新上,讯飞仍面临着挑战。

胡郁表示,相比于互联网产品,我赞成互联网的创新模式思维,但是我并不赞同很多互联网公司去通过烧钱的方法去做推广,这种推广效果并不一定能呈现刚需。

作为一个技术创新型的AI公司,而不是一个互联网公司,科大讯飞要用互联网思维来优化我们的核心技术,来优化产品,迭代产品

04

胡郁提到为何华为可以把消费者业务做成功:

首先,华为拥有一群学习能力极强的员工,去学习钻研如何从To B向To C转变;

其次,能够耐得住寂寞,保持定力,朝你自己认为正确的方向坚持下去,华为与讯飞的一些基因上是比较类似的,都是做那种板凳能坐十年冷、十年磨一剑的公司

最后,不断地吸引业界最好的知识经验与血液。

在发布会现场谈到AI应用红利兑现的基础——AI核心技术鸿沟的突破时,科大讯飞董事长刘庆峰表示这不是一蹴而就,需要源于热爱的长期坚守。

这是任何一家成功的AI公司都必须拥有的基因。

 

本文转载自:https://mp.weixin.qq.com/s/0c-cvbqE2pflXamMcEkHtA

iFLYOS+5大单品,A.I.「头号玩家」讯飞的商业落地秘籍

参加完5月21日的科大讯飞2019新品发布会后,一个感受:够分量!

够分量!

参加完5月21日的科大讯飞2019新品发布会后,小智只有这个感受。

走过A.I.元年的我们,对2019还有什么期待?在发布会上科大讯飞董事长刘庆峰给出的答案是:2019年是人工智能应用价值的兑换年。

1

如何判断A.I.技术的价值能否兑现?刘庆峰给出了三大标准:

1.真实可见的实际应用案例;

2.能规模化推广的对应产品;

3.可用统计数据证明的应用成效。

而在科大讯飞轮值总裁胡郁主持的新品介绍中,讯飞翻译机3.0、讯飞转写机、讯飞智能录音笔、讯飞智能办公本、讯飞学习机、iFLYOS 2.0也正不断地应证着以上三点,让我们的沟通、办公、学习“因A.I.而能”。

2

1.iFLYOS 2.0:A.I.「头号玩家」的生态之路

iFLYOS成为讯飞产业生态最具象的载体。在本次的新品发布会上,科大讯飞推出AIoT操作系统iFLYOS 2.0。

iFLYOS 2.0具备“人性化交互”、“深度自定义”、“端到端集成”、“高效率开发”四大特点,为开发者提供软硬一体的智能硬件解决方案和强大的集成开发环境(iFLYOS Studio);为消费者提供流畅的交互体验和多样的场景服务。

3

基于讯飞20年语音识别和语音合成的人工智能核心能力,新增了21种方言识别、语句中英文混合识别;支持全双工,让智能设备可以和用户连续对话,通过A.I.赋能助力开发者打造自己专属的操作系统。一言以蔽之,“快、准、好”是iFLYOS 2.0带给大家最直观的感受。

4

在技能和内容服务扩充方面,iFLYOS 2.0给出了亮眼的答案:官方提供了超过200个技能,更联合腾讯音乐娱乐集团、喜马拉雅等100余家优质的合作伙伴,为用户提供了海量、优质的内容服务。

同时iFLYOS 2.0突破行业桎梏,在开放度上进一步提升:

1.企业级开发者可以使用自己的用户体系;

2.利用技能工作室,开发者可以集成自己的各种服务;

3.在唤醒词、发音人、GUI等方面,开发者都能将自己的品牌元素融合。

5

这三大功能,将让开发者完全能基于iFLYOS开发一个真正属于自己的智能物联网操作系统。成为物联网行业的“头号玩家”。

2.讯飞翻译机3.0:0.5秒拥有走遍全球的自信

去年的博鳌论坛,讯飞翻译机2.0已经大出风头,本次发布会上的讯飞翻译机3.0则在翻译神器的魅力上进一步圈粉。

6

3.0的优秀表现,体现在如下升级:

在翻译上,新增对应外贸、体育、能源、法律等四大热门行业的语音翻译,翻译语言覆盖国家和地区近200个。

在离线识别率和翻译速度上,依托新一代离线内核,翻译机3.0扩大了5倍离线语音识别训练模型规模,实现中英文识别率超95%, 0.5s内完成一次翻译。

同时,讯飞翻译机3.0的拍照翻译也更加出色,搭载了科大讯飞前沿OCR技术+图文专业调校摄像头、保证各种光线条件拍照的清晰度和翻译效果。

科大讯飞智能翻译业务线总经理翟吉博在现场演示环节,为了让翻译机3.0“秀两手”可以说是无所不用其极,又是用视频演示七国口音翻译,又是现场唱歌和说英语绕口令,都被讯飞翻译机3.0完美应对,“神器”名副其实。

7

3.讯飞转写机:不只是“保险手提箱”

在刘庆峰演讲结束后,现场观众只需扫描大屏幕上的二维码,即可获得演讲PPT、演讲录音、转写文稿材料。而这就是本次发布会的新品之一:讯飞转写机的杰作。

面向办公场景的讯飞转写机是一款语音转写移动工作站,保险箱造型的外观就给人以安全靠谱的感觉。

8

事实上通过“全离线”语音技术,转写机内置离线转写引擎,保证转写时无需连网,同时将数据保存在本地,为涉密行业的会议提供保障;同时响应时间比云端服务缩短35%,工作效率更高。

9

在会议上,讯飞转写机可以将音频数据实时同步转化成文本,实现一边讲、一边展示文字在屏幕上的效果。轻松省力,提升效率。

导入的录音文件,讯飞转写机还可自动转写。1小时录音5分钟出稿,并能为视频文件实时生成配套字幕,随画面一起输出。

现场演讲结束后,讯飞转写机可自动生成二维码,支持分享。用户扫码即可回看现场演讲的PPT、现场发言转成的文稿,回听现场录音,随时随地分享观点与思想。

4.讯飞智能录音笔:5分钟转稿 10小时续航

讯飞录音笔采用了科大讯飞的A.I.语音识别和转写技术,识别准确率达到 98%。中英文可以边录边译,翻译结果还可用语音实时播放出来。为英文培训等场景的记录和理解提供了极大的便利性。

10

为了便于重要信息的回溯和查找,还可为重点内容一键添加自定义标签,该标签将在转写文稿中同步呈现。

11

2+6 麦克风阵列配置,在会议、采访、演讲、音乐会等多种场景下可实现高保真降噪拾音,收音距离可达15 米。

全新的智能操作体验。新产品配备了一块触摸屏幕,具备了和智能手机一样的智能系统和操作体验。

电池容量为2000mAh,满电状态下可连续工作10个小时,具备超强续航能力。高效出稿,1小时录音5分钟出稿,极大地提高了工作效率。为了进一步保障录音文件的安全性,新产品可以设置专属指纹识别功能,再也不用担心文件泄露啦!

5.讯飞智能办公本:聚焦读写的“一”级体验

如何让传统的手写笔记习惯,与先进的数码设备生活方式相结合?讯飞智能办公本用四个“一”来诠释。

“真实手写一张纸”,讯飞智能办公本配备了10.3英寸Eink柔性墨水屏,书写阅读体验接近于真实纸张,不伤眼,视觉无疲劳感,表面耐磨,微蚀刻。办公本获得了2018年中国最高设计奖红星奖。

“录音成文一秒钟”,讯飞智能办公本,基于科大讯飞语音识别和特写技术,支持智能语音听写和手势修改。无论是在会议、课堂还是采访现场,都可以将语音内容实时转换,在笔记本上进行编辑修改。同时在语音转写的过程中可以随时手写添加笔记,勾画重点。

12

“搜索笔记一句话”,讯飞智能办公本还支持语音检索、快捷搜寻历史笔记,以及一键分享的功能,真正可以做到获取信息即时性,便捷性,解放你的双手,只需简单发出指令,就能获得自己想要的信息。

“安全储存一辈子”,讯飞智能办公本实现了内容云端存储,通过语记云备份,笔记将永不丢失。科大讯飞的语音云技术已获得工信部安全可靠云和公安部三级等保的认证,多重保障永不丢失。

6.讯飞学习机:因材施教,辅导不再“鸡飞狗跳”

教育绝对是个经久不衰的话题。讯飞基于智学网随机调研的400万学生中35亿条数据进行了调查,发现大部分学生60%的日常练习都是无效的。这些无效练习不仅浪费了学生大量的时间,还造成了过重的学习负担,甚至让孩子害怕学习。

因此,围绕着这一问题,讯飞学习机提供了两大功能:一是数理化精准学习提升效率,二是英语听说读写综合提升。

13

如何实现数理化精准学习?基于知识图谱系统,我们将整个过程拆解成了三个步骤:首先基于人工智能技术快速测试,找到弱项;然后针对弱项进行精准学习;最后巩固内化形成学习闭环。

而在英语听说读写综合提升方面,学习机中具备语音评测和语音转写功能,在不同学习阶段都有同步听说读写训练,并以雷达图形式清晰展示学习情况。

此外,作为一款学习机,这款设备还有名师视频、拍照搜题、同步练习、历年真题试卷等等功能,也都内置其中。可以说是一机在手,教育资源全有。

在6大新品不断突破大家惊喜预期的同时,胡郁还宣布由科大讯飞发起的人工智能竞赛平台——第二届iFLYTEK A.I.开发者大赛正式启动!

科大讯飞保持技术领先和源头技术领先的同时开始向C端市场发力,并且加强对合作伙伴的生态赋能和扶持。本届A.I.开发者大赛将继续开放科大讯飞优质大数据资源及人工智能核心技术,开放2大赛事,9大赛题,面向全球开发者发起新挑战!

14

目前,第二届iFLYTEK A.I.开发者大赛已开启预约通道!6月21日前预约提交报名信息的参赛选手可以获得额外的一对一电话辅导!点击阅读原文进入报名窗口,获取更多比赛介绍!

你还可以添加我们A.I.小助手的微信iFLYTEKAI,抢先一步获取活动相关资讯哦!

温馨提示

添加微信号请备注“姓名+赛事类型”

例如“张三+A.I.创新应用赛”

讯飞新品发布会直击 | 2019 A.I.开发者大赛正式启动

技术顶天,应用立地!

5月21日,科大讯飞2019新品发布会在上海世博中心盛大开启,本次发布会以“你的世界,因A.I.而能”为主题,发布了讯飞翻译机3.0、讯飞转写机、讯飞智能录音笔、讯飞智能办公本、讯飞学习机、iFLYOS6大新品。
科大讯飞董事长刘庆峰作题为《你的世界,因A.I.而能》的演讲,他提出2019年是人工智能应用价值的兑换年,并与大家分享了判断A.I.技术价值兑现的三大标准:真实可见的实际应用案例、能规模化推广的对应产品、可用统计数据证明的应用成效。

1

科大讯飞执行总裁胡郁带来讯飞翻译机3.0等新品发布,胡郁介绍本次新品将让沟通、办公、学习因A.I.而能。同时,胡郁宣布由科大讯飞发起的人工智能竞赛平台——第二届iFLYTEK A.I.开发者大赛正式启动!

2

本届A.I.开发者大赛将继续开放科大讯飞优质大数据资源及人工智能核心技术,开放2大赛事,9大赛题,面向全球开发者发起新挑战!

一.2大赛事,共建顶天立地A.I.生态

2018年,首届iFLYTEK A.I.开发者大赛设置方言种类识别A.I.挑战赛,应用开发A.I.挑战赛,共吸引全球超过4000支团队,10000余名A.I.开发者积极参与。

第二届开发者大赛延续“技术顶天、应用立地”理念,设置A.I.算法挑战赛、A.I.创新应用赛两大赛事,总奖金池100万。希望聚集全社会的开发者和我们一起开放创新、共建A.I.生态。

3

算法挑战赛主要面向高校学生,将为参赛者提供锻炼个人能力,丰富项目经验的优质平台与机会。选手需要基于开源大数据,用算法解决社会类问题。

4

创新应用赛主要面向社会团体,如创业团队或中小型企业,选手需要基于开放的SDK、API或硬件开发板等,围绕具体业务场景进行应用开发,比赛将对参赛者的媒体曝光、资本对接起到良好的推动作用。

二.赛题升级,9大战场激发A.I.创造力

在两大赛事下,第二届iFLYTEK A.I.开发者大赛进一步赋能行业与生活场景,针对赛题进行了全新升级,立足医疗、营销、车载、教育、硬件、家居等领域设置9大赛题!

A.I.算法挑战赛包含4个赛题:

1.阿尔茨海默综合症预测挑战赛

参赛者通过对语音、语言智能化的分析和处理,可以为阿尔茨海默综合症临床认知障碍的检测提供有效技术支持。

2.移动广告反欺诈算法挑战赛

广告欺诈是数字营销面临的一个重大挑战,选手将基于讯飞A.I.营销云的现网流量数据,构建模型来预测流量作弊与否,预防数字营销欺诈事件的发生。

3.大数据应用分类标注挑战赛

如何对应用进行精准分析始终是一个业界难题。赛题将由选手基于提供的二级分类标签以及若干随即应用标注样本,实现应用分类标注算法。

4.工程机械核心部件寿命预测挑战赛

对工程机械核心部件寿命预测可以据此对相应部件进行维护,参赛者将利用大数据分析、机器学习、深度学习等方法建立合适的寿命预测模型,预测核心部件的剩余寿命。

A.I.创新应用赛包含5个赛题:

1.通用赛道

讯飞开放平台聚焦人机交互这一核心技术,邀请广大开发者基于讯飞开放平台技术开发一款智能产品,共同探索A.I.使用场景,推动人工智能创新成果转化。

2.智能汽车赛道

我们向广大开发者发起挑战,共同推进关于汽车场景引擎的研究。参赛者将利用开放的汽车行驶、位置数据进行模型构建,判断汽车所处场景类型,并设计良好的架构提升系统性能。

3.智慧教育赛道

为了应对信息化技术与教育的结合给教学带来的巨大挑战,希望参赛者基于讯飞人工智能语音技术,以基础教育应用为场景,完成一款以帮助师生减负增效为目标的教或学产品研发。

4.智能硬件赛道

伴随着人机交互方式由触屏交互到语音交互,本次大赛平台希望与开发者一起协同,配合讯飞开放平台开放的其它能力,打造更多的智能硬件创新产品。

5.智慧家庭赛道

参赛者需以电视大屏为载体,基于讯飞人工智能语音技术,完成一款应用类型为APK/H5的电视语音交互应用或技能的产品设计和研发。

通过9大赛题,我们力求覆盖更广泛的场景,激发开发者们的创造力,带来A.I.在全社会各领域的更多解决方案!

三.赛程赛制

赛程安排上,A.I.算法挑战赛和A.I.创新应用赛相同,详情如下——

5

四.大赛报名

目前,第二届iFLYTEK A.I.开发者大赛已开启预约通道!6月21日前预约提交报名信息的参赛选手可以获得额外的一对一电话辅导!点击阅读原文进入报名窗口,获取更多比赛介绍!

你还可以添加我们A.I.小助手的微信iFLYTEKAI,抢先一步获取活动相关资讯哦!

温馨提示

添加微信号请备注“姓名+赛事类型”

例如“张三+A.I.创新应用赛”

AI领域「听风者」:声纹识别5大核心知识点!

今天也是新课来了的一天。

在移动互联网大行其道的时代,人们不用出门不用见面就可以完成很多事情,比如购物、生活缴费、投资理财等,在享受着移动互联网带来的便捷的同时,人们也在担心在不见面的情况下进行认证身份的安全性。

传统的密码验证不仅容易忘记,更容易被黑客攻击盗取,不过好在我们每个人身上都有一些“活密码”,声纹、人脸、虹膜、指纹等,这些生物识别代表了每个人固有的特点。

今天班主任就来带大家了解下人工智能领域的「听风者」——声纹识别。

1

1.声纹的概念

为了更好地理解声纹,首先了解一下它的载体,也就是语音。一段语音到底包含了哪些信息呢?

一个人听到一段语音之后,基本上就可以从这一段语音里判断出:内容、说话人、语种、性别年龄、情感、信道环境等信息。

这一系列的信息对应了相应的智能语音识别技术,包括内容识别、语种识别、男女老少识别、情感识别以及场景识别。这其中判断该段语音的说话人信息就叫做声纹识别,也就是今天我们所要讨论的内容。

为了更直观地看到声音,我们采用语谱图的形式,语谱图的横坐标是时间,纵坐标是频率,坐标点值为语音数据能量。

2

由于采用二维平面表达三维的信息,所以能量值的大小是通过颜色来表示的,颜色越深表示该点的语音能量就越强。

声音在语谱图中的表示如上图所示,两个人说相同的内容,在语谱图上的纹路是不同的,这就是声纹最直观的表现。这种独特的特征主要有两个因素决定,第一是声带振动的频率,不同的人声带震动频率不同;第二是声腔的尺寸。除此之外,发声器官被操纵的方式也会使每个人的声纹不同。

2.自动声纹识别技术

声纹识别技术又称说话人识别技术,它是利用计算机系统自动完成说话人身份识别的一项智能语音核心技术。

这种技术基于语音中所包含的说话人特有的个性信息,利用计算机以及现在的信息识别技术,自动鉴别当前语音对应的说话人身份。

按照待识别语音的文本内容,可以把声纹识别划分为以下三种:文本无关、文本相关和文本限定。

3

文本无关是指识别系统对于语音文本内容是没有任何要求,说话人的说话内容比较自由随意。而文本相关是指说话人识别系统,要求用户必须按照事先指定的内容进行发音。对比这两类说话人识别,文本相关的说话人识别的语音内容匹配性是优于文本无关的说话人识别。所以一般来说其系统的性能也会相对较好,但需要用户配合,并且识别文本容易被窃取。

而文本无关的说话人识别,使用较为灵活方便,用户是无感知的,因此它具有更好的推广性和适应性,适合海量后台监控场景。

为综合文本相关和文本无关的两者优点,文本限定的说法就应运而生了。它是指识别的时候,从限定的文本库中随机提取若干词汇组合后提示用户反应。这样不仅避免了文本相关的假冒录音闯入,并且实现相对简单,安全性高,是说话人识别技术的一大热点。

例如采用10个数字的组合来生成限定文本,就是一种最常用的方式。包括科大讯飞公司的数字声纹密码系统也是采用这种形式的。

3.声纹辨认与声纹确认

除了根据识别文本内容来划分以外,声纹识别根据实际的应用范畴,分为声纹辨认和声纹确认。

这两类任务的识别目标略有不同,声纹辨认是指判定待测试语音属于目标说话人模型集合中哪一个人,是【1:N】的选择问题。而声纹确认是确定待识别的一段语音是否来自其所声明的目标说话人,是一个【1:1】的判决问题。

对于声纹识别辨认来说,根据测试识别来自说话人范围的不同,说话人辨认就又可以划分为闭集识别和开集识别。

4

闭集识别是指代测试语音必定属于目标说话人集合中的某一位,即待识别语音为集内说话人。

开集识别是指代识别语音的发音者可能不属于目标说话人集中的任何一位。除此之外,根据实际的应用场景,声纹识别还包括说话人检测(检测目标说话人是否在某段语音中出现)和说话人分离(以时间为检索,实时检测每段音所对应的说话人)。

然而无论是声纹辨认还是声纹确认,核心均是对声纹相似度的判决。

下面我们来学习下声纹相似度判决的流程。声纹识别是典型的模式识别问题,它主要包含了说话人模型训练和测试语音识别两阶段。

下图是一个基本的说话人识别框架,首先是注册阶段,对使用系统的说话人预留充足的语音,并对不同说话人提取声学特征,然后根据每个说话人的语音特征训练得到对应的说话人模型。最终将全体说话人模型集合在一起组成系统说话人模型库。

5

注册完成之后是测试阶段,在测试阶段中说话人进行识别认证时,系统对识别语音进行相同的特征提取过程,并将语音特征与说话人模型库进行比对,得到对应说话人模型的相似性打分,最终根据识别打分判别得到识别语音的说话人身份。

4.错误接受率与错误拒绝率

那么我们如何衡量说话人识别系统的性能?首先我们看一看对于1:1场景的声纹确认系统,声纹确认识别系统的评价主要有两个参数,分别是错误接受率(FAR)和错误拒绝率(FRR)

错误接受率是指将非目标说话人判别为目标说话人所造成的错误。而错误拒绝率是指将目标说话人判别成目标说话人。

两者的定义就是如下图公式所示,在声纹识别系统中可以通过设定不同的阈值,对错误接受率和错误拒绝率进行权衡。

6

当系统所要求的安全性越高,则设定的阈值应该越高,此时接受条件就越严格,相应的错误接受率就越低,但错误拒绝率可能就越高。

反之,如果系统追求较好的易用性,也就是通过率高,则阈值设定的应该越低,此时接受条件就比较宽松,错误接受率就高一些,错误拒绝率便会低一些。

图中所示的中间阈值的区域,是一个比较平衡的区域。一般采用检测错误权衡曲线,即DET曲线来反映两个错误率之间的关系。

7

对于一个特定的声纹识别系统来说,以错误接受率为横坐标,错误拒绝率为纵坐标,通过调整阈值得到错误接受率与错误拒绝率之间的关系曲线图,即DET曲线。DET曲线离原点越接近,系统性能越好。

在DET曲线上,第一象限角平分线与其交点处,错误接受率和错误拒绝率的值相等,该错误率称之为等错误率(ERR)。显然等错误率值越小,系统性能越好。同时它也是代表了声纹识别系统的一个大约性能,是衡量系统性能的重要参数。

说完了1:1的生物确认场景之后,我们再来看一下声纹辨认的场景

通常情况下,在开启的声纹辨认系统中,我们仍然可以采用错误率来评价系统的性能指标。而在这种闭集的辨认系统中,我们通常采用正确率或者识别率,或者是前N正确率作为评价系统性能的指标。

识别率就是指待识别的语音能够从目标说话人集合中,正确找到所对应说话人的概率。通常认定待识别语音与目标说话人集合中相似度最大的就作为辨认说话人,其辨认正确的比率又可称为Top-1的辨认召回率。若目标说话人集合中相似度最大的N个辨认说话人包含正确说话人时为辨认正确,如此统计出来的辨认正确的比率称为Top-N辨认召回率。

8

5.声纹识别的优势与劣势

最后我们来看一下,声纹识别相对其他生物特征识别有什么优劣势,除了声纹识别以外,常见的生物特征有指纹、掌纹、人脸、虹膜、视网膜等。生物特征代表了每个人固有的特点,它具有普遍性、唯一性、稳定性和不易复制性等。

与其他这些生物特征相比,声纹主要有以下三方面的优势:

1、非接触、易接受:

声纹由于其非接触性是可以用于远程领域的生物识别技术。另外蕴含声纹特征的语音获取方便、自然。在采集过程中涉及到的用户个人隐私信息较少,因此更容易被使用者接受。

2、成本低:

语音采集装置成本低廉,使用简单,一个麦克风即可,在使用通讯设备(如电话、手机)时更无需额外的录音设备。

3、伪造难:

声纹信息必须是活体采集,可使声纹口令动态变化而无需担心密码遗忘、丢失和窃取问题,防止录音假冒。

当然,声纹也有其自身的劣势,声纹特征的稳定性不够,受附着语音长短、内容、采集信道及环境、包括说话人自身身体情况影响,自动识别效果不及指纹等生物特征。

 

【重要的号外】

今天的科普课程就到这里啦,想了解更多关于声纹识别的知识,可以点击“阅读原文”进行课程视频观看~在文章结束之前,班主任有个2小惊喜要和大家分享

第一:AI大学公众号新增【每日签到】功能点击菜单栏【个人中心】—【每期签到】,立刻体验新功能。

9

签到即可获得相应积分,积分可用户兑换AI大学限量版台历、笔记本等精美礼物。

10

第二:AI大学新增【邀请码】功能每邀请一位好友关注”AI大学“公众号,即可获得5积分,累计获得100积分可兑换价值299元的AI大学书包1个!在公众号“讯飞AI大学”后台回复“AI大学码”立刻体验新功能吧~

1111

科大讯飞携手德国摩根深耕智能家居领域,重磅发布多款智能家居新品

一“呼”即应。

11

5月13日,德国摩根智能家居北京居然之家金源体验中心盛大开幕,科大讯飞作为重要合作伙伴出席开业仪式及新品发布会。当天,科大讯飞与德国摩根联合发布了首款集成MORFEI CORE的智能语音面板与集成讯飞IoT能力的智能闹钟等新品,以领先的人工智能技术与严谨的产品态度引领行业新风潮。

22

随着智能家居市场的兴起和产品的普及,家庭中添置的智能单品越来越多,因此智能连接和控制类产品作为家居联动的一环也显得格外重要。依托强大的A.I.技术和前沿的产品思路,科大讯飞联合德国摩根发布了智能语音面板和智能闹钟。两款产品不仅拥有各自的特色功能,而且皆可连接和控制其他智能家居产品,成为用户生活中的好管家、好助手。

不仅是面板,还是你的管家

33

摩根智能语音面板采用双麦麦克风阵列,以讯飞MORFEI CORE为开发框架,集成了前端降噪、语音唤醒、在线/离线语音识别、语义理解、语音合成等语音技术,支持全双工语音交互,用户可与面板进行多轮对话并不受语音打断的干扰。

44

通过接入MORFEI Link家居平台,摩根智能语音面板可连接、控制MORFEI智能家居生态的其他设备,变身大管家。同时,摩根智能语音面板还具备本地分布式控制功能,可与其他具备该功能的智能家居设备实现全屋联动。

不能当助手的中控不是好闹钟

55

采用讯飞四麦麦克风阵列,集成讯飞降噪算法、回声消除,摩根智能闹钟在安静环境下可实现5米精准拾音;通过接入AIUI,摩根智能闹钟可与用户流畅地进行多轮对话交互。得益于语音交互功能,摩根智能闹钟还能充当生活小助手,帮助用户日常查询天气情况、交通路况、空气质量、新闻资讯、股票信息等资讯。

66

集成了讯飞IoT能力的摩根智能闹钟还可作为智能家居中控,对家中的智能设备,如灯、窗帘、空调、新风、地暖等进行控制;同时智能闹钟还支持场景模式控制,如回家模式、离家模式、影音模式、休息模式、会客模式等。值得一提的是,摩根智能闹钟集成了讯飞本地分布式功能,可与其他具备分布式功能的智能设备共同实现整体智能家居的分布式控制。

有力度的支持,有温度的服务

77

作为科大讯飞核心合作伙伴,德国摩根正式入驻讯飞AI服务市场智能家居版块,共同深耕智能家居领域。以讯飞开放平台与讯飞AI研究院支撑,讯飞AI服务市场覆盖上百个行业,拥有上亿用户,将为德国摩根带来持续稳定的订单与商机,并提供最新的核心AI技术支持、品牌渠道支持等服务。后续,多款德国摩根智能家居产品将在讯飞AI服务市场线上商城开售。

科大讯飞将以领先的人工智能技术和服务为德国摩根赋能,推动更多智能家居产品落地。同时,科大讯飞致力于通过MORFEI智能家居生态为产业链上、下游合作伙伴带来良好的行业环境,为用户带来“有声音、高品质”的智能家居体验。

讯飞人工智能录音笔京东预约火热开启,开启高效记录时代

京东0元选购,语音秒转文字!

11

整理采访录音常常要花费记者等文字工作者们大量的时间和精力,但在今年两会上我们发现不少媒体记者都“装备”上了新一代的人工智能设备——讯飞智能录音笔。这款“黑科技”产品显著提升了记者的工作效率,更提升了报道的准确性,受到众多媒体记者的热捧。就是这个在两会上走红的人工智能录音笔,现在可以预约购买了!

5月6日,支持语音转文字的新一代智能录音笔——讯飞智能录音笔将在京东正式开启预约,0元预约赢蓝牙耳机

22

颠覆传统录音,讯飞智能录音笔助力高效工作

科大讯飞在智能语音、人工智能领域深耕二十年,这次推出的讯飞智能录音笔搭载了自主知识产权的核心技术,同时考虑消费者使用场景需求,一举打破录音笔单纯的录音-播放限制,充分利用人工智能语音转文字辅助人工。

讯飞智能录音笔颠覆式地推出语音实时转文字功能,不但能完成高质量的录音,还能将录音转写成文字并保存。1个小时的录音,只需要5分钟即可完成转写,为日常工作、学习中的信息记录与整理工作提供一体化解决方案

33

44

传统录音笔即便是几千元的高价位产品在应对不同录音场景时,小到几人的会议,大到上百人的活动现场,也很难“面面俱到”。讯飞智能录音笔采用了2颗哈曼卡顿定向麦克风+6颗矩阵麦克风,一共8颗麦克风的组合,可实现15米超长距离以及360度环绕无死角收声。并且针对使用场景智能调用麦克风,同时结合自有的降噪技术,达到对应场景下的优质使用体验。

使用传统的录音笔经常会遇到的另一个问题就是音频文件的编辑处理。一段录音反复听,二次加工整理文字,费时费力,工作量非常之大。讯飞智能录音笔拥有触摸屏幕,录音时,所说的话实时转写成文字呈现在屏幕上,高效“看”得见。依托业界领先的语音转文字引擎,识别率高达98%。原先1小时的录音,人工整理大约需要3小时;现在通过讯飞自研的智能转写功能,5分钟即可转写成文字,可以帮助你将处理信息的时间大大缩短

55

不仅如此,该款产品的外形设计也可圈可点,航空级铝合金材质,人体工学设计,舒适的握持体验……就是这样一款颠覆传统录音笔的新产品在京东正式开启预约。

未上市先走红,讯飞智能录音笔开启消费者A.I.新体验

早在今年1月的美国CES展上,讯飞智能录音笔就在拉斯维加斯正式展出。科大讯飞副总裁、消费者BG副总裁李传刚博士向现场参会者正式介绍了这款面向消费者的最新智能硬件产品。

66

两会期间,讯飞智能录音笔再次“大显身手”,成为两会记者采访的科技新装备。一边录音一边就可以转成文字、还可以同步翻译成英文 …… 央视、新华社、人民日报、环球时报等多家媒体记者在两会现场中使用了讯飞智能录音笔,其精准快速的录音和转写能力获得了记者们的一致好评。博鳌亚洲论坛期间,讯飞智能录音笔发挥也相当出色。

77

用人工智能突破传统录音笔的桎梏,为生活和工作带来更多可能。讯飞智能录音笔作为支持语音转文字的新一代智能录音笔,让声音信息的存储、编辑、转写、查看功能更加智能和高效。点击链接抢“鲜”预约:http://item.jd.com/100005145212.html,和讯飞智能录音笔一起,开启智能化的高效时代!

谷歌 I/O:语音助手成精了!承包你的衣食住行

比你妈还懂你的助手。

a

一年一度的Google I/O开发者大会如期而至。

今年也是Google旗帜鲜明推行“AI First”战略的第四个年头。一直强调的“Bringing the benefits of AI to everyone”,也在2小时的演讲中不断得到证实。

Google CEO 桑达尔·皮猜淡定登场
Google CEO 桑达尔·皮猜淡定登场

 

Google Assistant升级:这才是智能语音该有的顺畅

观看了升级版语音助手的完整演示之后,我只有一个感受:舒坦!

此话怎讲?

 

1.有话直说,刻意唤醒不需要

我们熟知的语音助手在使用之前都必须先唤醒,例如“Hey Siri”,未经唤醒的语音助手就处于无法响应的睡眠状态。这导致每次用语音助手的时候不仅麻烦,而且还显得使用者有点······蠢。

而这次的Google Assistant则不需要刻意唤醒。在演示中我们可以看到,原本在看 John Legend推特的使用者临时起意,对Assistant 说“我想去看他的演唱会诶。”

反应时间不到 1 秒,手机就立刻规划出了去John Legend演唱会的路线,甚至连最实惠的打车方案都帮你想好了。

3

2.要打开哪些APP我自己知道

-“我想发一张在美国黄石公园拍的照片给朋友。”

-“有动物的。”

-“发送。”

4

在这一连串的语音命令下,Google Assistant首先进入了手机相册,筛选出地点是在黄石公园的照片,再挑选出其中内容包含动物的,最后跳转到邮件发送页面,光标自动衔接到邮件文字的输入中。全程的指令识别和应用跳转都十分顺畅,不需要多次唤醒也不用人为切换应用。

3.执行速度,这次是真的快

Google Assistant整合了众多机器学习的功能。理论上,当它收到一则语音请求时,需要通过三个独立的模型进行处理,从而理解语音命令。原来在这一过程中,Google Assistant需要多达100GB的数据来进行分析;而现在,数据大小被成功地压缩到了0.5GB,大大缩小了从用户语音发出到命令执行的延迟。

通过现场的演示我们也可以看到,在用户连续不停地发出语音指令的情况下,Google Assistant也能迅速流畅地执行,几乎可以说是“实时”。

5

通过Google Assistant的这些操作展示可以看出,语音操控已经极大地摆脱了之前唤醒烦、反应慢、工作笨的情况,用起来越来越舒坦。这都有赖于AI技术的加入,从“Mobile first”到“AI first”,人工智能技术成为了Google战略布局中越来越重要的一环。

 

Live Caption :掌上的即时“字幕组”

与你更亲近的语音助手只是开胃菜,此次I/O 2019上Google将几百G的机器学习成果浓缩到手机应用中,就是要让AI带给你的生活更多便利,更多人情味!

没有字幕组,啃生肉视频很吃力?在Google的Live Caption诞生后这些即将成为历史。通过Live Caption,设备上播放的任何视频、音频的语音都可以被实时转录,生成字幕。

20936771b7b8d117c359e5f22e55cfe1

但仅仅是语音转文字还不够带劲,Google还玩出了如下爆点:

1.网速根本不是个事

Live Caption的突破,在于把整个功能完整地安装在了手机端中。

这意味着什么呢?你的手机即使没有联网,也可以使用Live Caption对任何视频和音频进行加字幕处理,而无需担心准确率和效果会受到没有与网络数据库相连的影响。

过去YouTube曾推出自动给视频加字幕的功能,但Live Caption则进一步突破网络限制,拓宽了发挥空间。

2.啃生肉无需连蒙带猜

Live Caption除了能实时转字幕,还能同时进行翻译,将外语视频的字幕以你的母语形式呈现出来。

7

在现场演示中,画面上的母亲正在喂自己女儿吃饭,但是母亲说的是韩语,而下面的字幕正在实时转成英语,不得不说如果这种功能以后得到普及,字幕组真的可以光荣退休了~~~

3.让残障人士听得到,说得出

Google基于音视频字幕功能的突破,也与大家分享了自己在公益上的新想法——

通过生成字幕,可以让听障人群也能和正常人一样接收电话与视频聊天中的信息。而输入文字实时转语音,也将代替手语,让通话如普通人一样自然流畅。

8

同样受益的还有渐冻症患者。Google的新技术让他们可以通过嘴唇的细微运动来准确输入文本,表达自己的意思。相比于过去通过眼睛运动来输入,正确率更高,对身体负担更小。

9

10

正如Google在本次大会上所传达的:“成为惠及每个人的 Google,无论你是谁,住在哪里,想要实现什么。 ”


严格来说,本次I/O大会上登台的应用或多或少都是从前两年发布的新产品延伸而来。但随着各项技术的不断完善,例如现场演示的Google assistant与真人对话、相册自动推荐修改等功能,的确让人感觉到Google的诚意。

除了效果更佳之外,这些全新功能与系统的结合程度也颇高,反而降低了用户在这些新功能上的学习成本和使用成本。

关注聋哑人,从“手”开始!

你能想象一副手套就能让聋哑人“听到”声音并开口“说话”吗?

发表于2018-11-21 18:47| 来源CSDN| 作者CSDN

你能想象一副手套就能让聋哑人听到声音并开口说话吗?这事儿听起来很神奇,却被来自福州大学的一群在校生实现啦,而且还在科大讯飞AI开发者大赛的决赛现场技压群雄,勇夺冠军。


据了解,这支颇具创新意识的冠军学生团队主要由三名研究生以及多名本科生组成,十几个人通过近半年时间,研发了一款具有社交功能的手套,主要通过手语识别、语音识别、语音合成等多项技术来破除听障人士的沟通障碍。

据了解,“E-chat”聋哑人社交手套外形与普通手套无异,但上面却是机关密布。聋哑人只要佩戴手套后,通过采集相应的手势信息就可将手语表达翻译为语音信息;相反,正常人的语音通过识别之后,又将转化为聋哑人熟悉的手语,并显示在手机屏幕上,双向翻译形成语音和手语之间的沟通闭环,这就有点儿像风靡一时的语音翻译工具。

谈及这款颇具人文情怀的发明,Forever Young团队的初创成员之一林鹏程表示,最初研发的灵感主要来自一场学校组织的手语比赛。当时我们都不懂手语,就想着先做个翻译器,后来觉得如果有一项技术可以将眼前的手语转化成声音,那不是更加方便了?而且对听障朋友会特别有意义!

此外团队成员在本科阶段也确实接触并研发过这种性质的数据手套,又同时捕捉到MEMS传感器在最近几年内迅速发展的态势,所以从最初只是想通过这次实践深入学习一些有关传感器的技术点,结果却演变成通过见证聋哑人的生活并在学校图书馆进行学生手语调查等一系列切身实践后,深刻体会到这项发明的巨大潜力,也就随着时间推移不断完善,并加以推广了。


据了解,就在去年12月,Forever Young团队凭借“Echat”聋哑人社交手套报名参加了与开发者相关的创新赛事,经过4个多月的比拼,从1700多支参赛队伍中脱颖而出,最终勇夺最佳创新项目特等奖。

关于参加这次科大讯飞主办的AI开发者大赛,团队成员表示,之前本身就使用过科大讯飞的产品并对其深入了解过,如今看到这样一个现场学习的好机会,就抱着试一试的想法来了。没想到会有这么大的惊喜,而且能够为不懂手语的朋友与听障人士更便捷准确的交流带来助力,很有成就感。

深入探讨这款酷产品,我们发现,从技术方面,Forever Young团队通过参加各类比赛切磋,带来了技术层面一次又一次的成功、精准的迭代,而且手语算法作为团队的核心竞争力,目前已经申请了国家级专利。历经发展,就在今年4月,团队首次尝试使用智能手机作为平台,并对算法进行提升,经过不断努力手套如今已能识别近300个词汇和短句。

尽管这项创新应用已经获得了很多关注以及鼓励,但研发过程所中所面对的困难还是让人长舒一口气。

硬件方面,我们希望产品完工后足够轻便,所以换了好几十版电路以及许多元器件的封装,最终为了可以更好集成在一块小电路板上。具体来说,我们开始使用的是0805的封装,后来又改用了0603,这样前前后后换了十几版电路,遗憾的是至今还没有达到我们理想中的大小,仍旧需要不断尝试。团队成员说。

除了硬件层面,软件方其实也遇到了一些小问题。Forever Young团队的初创成员之一林鹏程总结道,其实开始从底层的驱动设计入手,就出现了很多bug,经过调试之后才有相对安全的范围以及稳定结果;另外对手势识别的设计方面,挑战是最大的:从最开始的机器学习过渡到深度学习方式,这是一个不断改进的过程,虽然目前已经达到了89%的识别率,但未来进步的空间还很大;此外对手套各项功能的提升,一直面临着不小的资金瓶颈,如果想要实现手套完全脱离手机这种智能化程度,未来还需要找到伯乐一枚共同完善设计。

不过可喜的一点,通过参加比赛,团队成员纷纷从科大讯飞的语音技术上收获启发,将作品中加入讯飞的语音技术后收效明显,未来还将在识别能力以及硬件的外观方面完成更进一步的改进,更好发挥AIUI的能力,通过关键词语义理解技术来弥补词汇量的不足,实践更自然的表达。

谈到对未来智慧时代的畅想,林鹏程觉得,在未来的发展中,即使AI不能完全替代人类枯燥乏味的工作,也至少可以帮助人类减少这类工作的重复执行,提高效率并解放双手根本不在话下;人们最起码的居家生活会不间断涌入AI 产品以及应用,就像如今风靡的智能音箱一样,丰富知识并拓宽信息获取的渠道将变得异常简单,在此背景下,来源于生活并助力生活便捷的手套只是一个开始。

新能力上线 | 精准识别2万种物体,还能看人脸测颜值!

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

划重点

科大讯飞能力星云计划的优秀AI服务合作伙伴——图普科技,带来人脸识别、自然场景识别新能力!戳一下了解详情:人脸特征分析场景识别物体识别

如今,打开微信朋友圈,一条条动态几乎没有不配图的。晒风景,晒美食,晒自拍……一天不“晒图”简直浑身难受。

 

全世界每天每分钟会上传超过5亿张图片到互联网,随着高速网络的普及与智能设备的发展,图片已成为用户表达、事件记录中不可或缺的部分。内容审核、照片管理、营销推广等需要处理大量图片的工作对图像识别能力的需求正在不断增强。

对于开发图像智能识别产品的开发者,想让产品脱颖而出,不仅要让识别高效精准,还要能通过独一无二的功能带来全新的玩法,比如可以给好友的自拍评一个颜值指数、从一张晒吃照片中迅速获得美食信息……

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

 

人脸特征分析

颜值、表情多维度识别,准确度99.5%

基于深度学习算法,可以检测图像中的人脸并进行一系列人脸相关的特征分析,当前支持识别出包括性别、颜值、年龄、表情多维度人脸信息。可用作基础人脸信息的解析,智能分析人群特征。

 

年龄

对上传的图片中人物的年龄段进行判断分类,如婴儿、青年、中年、老年等。

性别

识别出上传的图片中人物的性别。对露出全脸、侧脸的真人或动漫人物进行“男性”、“女性”的分类。图中有多个可辨别面部特征的人或动漫人物时识别为“多人”。对画面无人、面部未显示或无法辨认的图片归为“其它”。

颜值

对上传的图片中人物颜值进行分析,给出对应结果:漂亮、好看、普通、低颜值等。

表情

识别出图片中人物的表情特征:喜悦、愤怒、悲伤、惊恐、厌恶等。

能力优势

1、准确度达99.5% 

对于日常生活中的人脸,准确率高达 99.5%。

2、可适应多种复杂环境

在遮挡、光照不佳、头部姿态变化等复杂场景下均具备高性能表现。

3、处理高效稳定

毫秒级响应速度,在 PC、移动设备上均能迅速处理。

可应用场景

1、客流属性识别 

通过对图像或视频中的人脸特征分析,分析客流的性别、年龄等属性。

2、广告精准投放

通过人脸特征分析,可以实时分析受众人群的性别、年龄等特征和分布状况,精准投放广告。

3、线下营销

基于人脸特征分析,商场、餐厅等场所可展开颜值测试类的互动营销活动,增加与顾客的互动。

自然场景识别

覆盖数十种场景,2万种物体

场景识别

精准识别自然环境下数十种场景,让智能相册管理、照片检索和分类等基于场景的应用展现得更加直观。

对实际应用场景分为室内、室外、自然风景和其他四大分类,每个分类都会按照实际场景细分为多个类别,根据用户上传的图片里对应的实际场景返回结果。

 

物体识别

全球领先的通用物体检测算法,有效检测图像中的动物、交通工具、生活家具等2万多种生活常见物体。可分析图片主要内容,帮助技术团队对图像语义进行自动化解读。

 

能力优势

1、超高准确度

全球领先的智能识别算法,让图片内的场景和物体可以被准确识别。

2、功能强大

支持数十种场景、数万种物体识别,并在持续增加中。

3、适应复杂环境

在模糊、倾斜、光照不均、背景杂乱等情况下均保持高性能表现。

4、处理高效稳定

毫秒级响应速度,并在实际场景中不断优化性能表现。

可应用场景

1、拍照识图

自动识别所拍照片的内容,减少人工录入成本及出错率。

2、图片内容检索

根据图片场景自动分类,建立快速检索系统。

3、智能相册

根据用户上传照片进行主体检测,精准识别照片信息,批量读图实现相册智能分类管理。

4、内容及广告推荐

识别用户经常浏览的网页中的图片信息,推送相关内容或广告。

5、以图搜物

在不知道图片中物体的名称时,自动化检测并展示图片内的物体信息,方便进一步搜索物体的相关内容。

来官网进一步了解吧!
人脸特征分析

场景识别

物体识别

A.I.能力星云

除了自研能力,科大讯飞还与业内优秀的技术厂商进行战略互补形式的合作。带来能力星云计划

讯飞开放平台自2010年成立以来,经过8年的积累,现已开放近百项A.I.能力,赋能88万开发者团队。在能力星云中,A.I.服务合作伙伴通过讯飞开放平台的桥梁,为更多的A.I.开发者和爱好者提供服务,让技术为在更多场景中落地,为各行业赋能。

A.I.服务合作伙伴在能力星云中拥有:

官网专栏产品页

讯飞开放平台上线A.I.能力详情页,产品介绍,接入流程,能力提供方等信息一应俱全!

全渠道推广宣传

线上渠道,线下市场活动,会针对A.I.服务合作伙伴的产品进行全网宣传和推广,扩大影响力,吸引更多开发者使用A.I.能力!

商机即时对接

专业团队负责商机梳理和对接,A.I.新能力商机将会即时处理,定期同步给A.I.服务合作伙伴,带来更多商业资源引流。

共享开放平台开发者

讯飞开放平台丰富的开发者将率先体验A.I.新能力,并应用在产品中,形成更多的合作案例以及解决方案!

未来,能力星云将让厂商的实用级核心技术陆续与讯飞的核心能力一起,汇聚成A.I.能力的星云,释放巨大的组合效应!

科大讯飞魏思:技术在不断发展的同时,也在朝着历史「回归」

技术在不断发展的同时,也在朝着历史「回归」
如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向.

在刚刚结束的全球1024开发者节上,科大讯飞研究院魏思就模式识别和人工智能的发展关系和发展历史问题,做了他自己15年来的A.I.追光故事分享。

他在分享中提出如下观点:

技术在不断发展的同时,也在朝着历史「回归」

如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向

……

这些观点是非常值得我们去学习和思考的,我们将魏思院长的演讲文稿整理出来,希望对大家未来的研究之路能够有所启发。

以下为演讲稿的文字整理,有部分微调

我叫魏思,来自科大讯飞研究院,我大概有15年的时间一直在从事模式识别方面的工作。

模式识别大概有60、70年的发展历史,最近这十年好像行业技术发展得很好,但实际上我认为它是朝着历史回归了

目前所有研究的方向、模型都回归到了条件相关性或者是条件依赖性的数学模型上,而此模型是在80年代中期由美国科学家Judea Pearl提出来的,后来这套模型演变成了图模型,目前的基于深度学习的模型和图模型在数学上的变化非常小,但是实际效果变化却非常大。

接下来我会从4个方向去讲述这几十年来技术的发展脉络。这4个方向分别是人类或者动物的神经元信号的传递机理和人工神经网络;统计和模式识别;语音和语言方面的研究;图像识别的研究进展

 

点击查看魏思演讲全部视频

从生物神经网络到人工神经网络

18世纪,意大利的科学家伽伐尼发现青蛙的蛙腿放在金属上会引起抽搐,这是人类第一次发现肌肉可以由电刺激而产生动作,于是伽伐尼猜测了生物电的存在。

1920年阿德里安通过实验证明了神经元动作电位的存在。而早在20世纪初的时候,科学家伯恩斯坦提出了静息膜电位的概念,并发现静息膜电位为-70mv,同时他猜测带电物体穿越细胞膜或许是动作电位产生的机理。

1939年霍奇金和赫胥黎通过枪乌贼神经元的系列精细实验证明了神经元的细胞内外确实存在电流,并测量出了动作电位的大小(110mv)。他们发现是钠离子的内流形成了真正的动作电位,钠离子内流之后钾离子外流保持细胞内外的静息膜电位然后他们猜测了两件事情,第一,膜上有离子通道,第二,存在离子转运蛋白保持膜内外离子平衡,这些后来都被分子生物学所证明。静息膜电位,离子内外流动和转运蛋白一起完成了动作电位的产生。
h'y640

 

魏思现场演讲

同期(1920-1930)Loewi,Dale,Katz发现了神经递质乙酰胆碱,乙酰胆碱引起离子通道打开从而在神经元间形成动作电位,完成了信息在不同神经元之间的传递,至此,神经元的信号传递分子机理基本梳理清楚了。

在此基础上,1943年McCulloch和Pitts提出一种非常简单的数学模型(MP模型)去近似神经元的信号处理机制。1958年美国科学家罗森布拉特首次发现可以用MP模型,去完成很简单的模式识别任务,也就是让机器识别物体和数字,这也是第一代神经网络,我们称之为感知机

我们把那个阶段称之为神经网络第一次浪潮,但很快浪潮就过去了,因为当时的感知机的识别性能比较低,在实际中很难发挥作用。

同时在50年代,Kuffler,Hubel和Wiesel发现了视觉神经系统的工作机理,原来视觉不是响应弥散光的照射,而是响应不同形状的光照。他们创造性的提出了感受野的概念,现在我们知道这就是滤波器。

受此研究的影响,贝尔实验室的科学家LeCun在80年代末90年代初想到了利用卷积或者形状响应机理设计一种算法去进行文字的识别,但当时,模式识别界被SVM主导,这个发明并没有引起很大的反响。

640了魏思现场演讲

同时,从80年代到90年代,Hopfield提出了动态神经网络,Schmidhuber和Hochreiter提出带遗忘机制的动态神经网络模型。但那时并不被看好,直到近几年这个模型才逐渐流行开来。2006年以后,Hinton复兴了深度学习,并在语音和图像上取得了突破性进展,深度学习也获得了极大的应用这就是我们说的从神经元的工作机理,到人工神经网络的发展历史。

 

统计和模式识别的发展

统计的雏形是概率和计算而最早的广为人知的统计算法是最小二乘法,它是在1805年由勒让德首先发明的,并在1824年由高斯用误差分析的方式重新阐述以后获得了极大的影响力,是前模式识别时代应用最广泛的算法。

1885年弗朗西斯·高尔顿发明了回归,同时利用数据统计和图形化首次得到了二维正态密度的分布图和相关系数等重要概念,要说现代统计肇始于高尔顿也不为过。

高尔顿赞助卡尔.皮尔逊在伦敦大学学院(UC London)成立了统计实验室,造就了20世纪早期开始的统计学革命。费舍尔(Sir R. A. Fisher)在1936年提出的线性区分性分析(LDA),纽曼,爱根·皮尔逊(卡尔·皮尔逊的儿子)同期提出的似然比检验(Likelihood Ratio Test)则可以称之为现代分类器的雏形。这些概念后来演变成了现代模式识别体系。

1950年美国科学家Abraham Wald系统地将“统计决策理论”阐述清楚。从那时候开始,模式识别慢慢成熟,我们有了很多可用的模型,比如说线性分类器、树分类器,GMM模型,HMM模型等。

这里面特别值得一提的就是条件相关性模型,1985年Judea Pearl提出来贝叶斯网络, 此后,Judea Pearl对图模型的学习、推理等进行了系统性的研究,并解决了一系列数学问题他在科普书(The book of why)中自豪的称自己的工作解决了人类智慧的秘密(寻找事物之间的因果关系),他也因此得了2011年图灵奖。

64045魏思现场演讲

但事实上图模型的学习和推理非常难(数学上的术语是图模型的学习是NP-Hard的),在实际应用中的效果并不是很好。在2006年到2010年期间,以Hinton为代表的人工智能学者发现在用神经网络让模型通过数据和算法自动去获数据之间以及数据和标签之间的条件相关性,可以获得非常好的效果

从上面我们可看到,模式识别也慢慢地发展到了对条件相关性的利用和训练方向上来了。

 

语音和语言的发展

在语音方面我会讲两个方向,语音合成和语音识别。

语音合成在90年代以前都只是实验室的项目,到了90年代后,研究人员发现可以通过预先录制很多的语音,在实际使用的时候把数据拿出来进行拼接来进行语音合成。奇怪的是,这么简单的做法,居然可以获得相当好的效果。但是这样得到的语音连贯度和平滑度不够,所以研究人员设计了很多的启发式的规则和方法,去调整语音合成的连贯度和平滑度。

2000年,日本科学家Tokuda把语音识别中的常用方法HMM用到了语音合成上,提出了新的语音合成方法,虽然在当时它的效果不是很好,但很快人们发现用这种新的方法,在语音合成的效率、平滑度问题上,都有很好的表现。

2016年年Google提出了WaveNet,我们也利用条件自回归模型取得了较大进展。目前,由于利用了长时的相关性,我们的语音合成效果非常棒,语音合成也慢慢收敛到条件相关性上来了。

语音识别历史就更长了,而且更有意思。 1971年JennyBaum发明了HMM,1975年James Baker把HMM用到了语音识别上80年代到90年代,GMM/HMM的EM算法被几个小组(CMU,IBM,Bell lab)重新定义(1977年Dempster就已经从数学上把EM算法做出来了),一批科学家从无到有地将EM算法和HMM语音识别上的整套体系建立起来了。自此语音识别被HMM主导并由于HTK(HMM Toolkit, Cambridge)的出现而得到了大面积的推广。

2010年,Hinton首次提出利用深度网络结合HMM进行语音识别,并和微软研究院俞栋和邓力合作在SWB上获得了相对30%的提升,从此语音识别翻开了新的一页。

综上所述,可以看出语音合成和语音识别也都收敛到条件相关性的数学模型上来了


64088

 

魏思现场演讲

下面,我们来看看语言。

在很早的时候,语言是定性和分析的科学。

到了90年代,随着HMM模型的普及,特别是HMM在机器翻译上的成功应用,语言也进入了统计的时代。

2001年JohnLafferty发明了条件随机场模型,这个模型考虑了特征域和标签域的条件相关性(相比HMM,多考虑了标签域的相关性),由于考虑到了更多的条件相关性,条件随机场的效果好过其他的模型,也获得了大量的应用在2001年之后,条件随机场几乎主导了需要处理动态信息的自然语言处理系统。

2012年,Minklov首次利用(RNN)语言模型取得了语音识别的显著提升,同时他们发现可以利用RNN语言模型生成符合语法规范的句子,而在此之前机器自动生成合乎语法规范的句子几乎是不可能完成的任务。

2015年,Google和Universityof Montreal几乎同时提出了利用编码解码机制去进行机器翻译,再加上注意机制(Attention)的引入,机器翻译在过去的几年间发生了翻天覆地的变化。机器翻译的效果在简单场景下已经达到了人工的水平。而这套模型也是利用了神经网络实现了特征域和标签域的全部条件相关性

由上我们可以看到,语音和语言,也都收敛到了条件相关性模型上了。

 

图像识别的研究进展

图像识别的发展可以分为2个阶段, 2012年之前和2012年之后。

在2012年以前,大部分图像识别类的任务都是在发明非常精巧的算法,或者定义更加复杂有效的滤波器。这些工作虽然比较漂亮,但在实际复杂场景下的推广性不佳,如说人脸识别和物体识别。视觉识别方面(如人脸,物体,物体分割等)的研究也一直没有获得大规模应用。

2012年Krizhevsky和Hinton首次提出了利用多层子卷积神经网络来进行图像识别在2012年的ImageNet比赛上遥遥领先传统方案,以显著优势获得第一名。从2012年以后,深度卷积网络几乎主导了计算机视觉的研究,现在几乎所有的视觉类任务都可以看到深度卷积网络。

为什么会出现这样的现象?实际上所有人工设计的分类器或者特征,都是在试图用人工的方法去找到特征之间的条件相关性,这是非常困难的。

而深度卷积网络让机器通过海量数据自动去提取条件相关性,这样可以发现非常复杂和隐藏的相关性

由此可见,图像识别也收敛到了条件相关性上来了。
64000

 

魏思现场演讲

下一步的发展方向

我讲完了刚才的四个方向,大家会发现在模式识别的各种实际应用领域,模型通通都回归到条件相关性这个数学概念上

唯一的区别是,我们现在找到了非常棒的一个动态模型,它能够比较自然地去描述条件相关性,然后我们再给模型很多训练数据,用基于梯度下降的BP算法去训练此模型,便可以在实际应用中取得很好的效果。

看到这里大家可能要问,这便是人工智能了吗?

不,并不是。

智能和我们现在算法的差距非常远。我们现在的算法是给定了模式、给定输入,通过模型找到模式和输入之间的条件相关性,仅此而已。

64099魏思现场演讲

但是人类的智能是什么?人类的智能并不是在给定的模式下面做分类。人类会新定义模式(发现新模式)、拆解模式(进行模式重组和加工),所有这些都是现在我们模型所不具备的

总结来说,现在的模型可以让我们非常自如地去发现数据中的复杂的条件相关性或者依赖关系。但由于这种关系可能是远距和复杂的,直接利用梯度信号训练,我们需要非常多的训练数据。

现在的模型虽然好,但是它的实现原理和人类机理差别还是很大的。人是通过无监督学习,把所有的结构或者相关性梳理好,然后通过有监督的学习去进行标注和贴标签并不是直接用有监督数据来进行模型训练的(请大家回顾一下小孩子学习语言和进行图像识别和分类时,他得到的有监督数据是非常有限的)。

同时,人类智能更多体现在认知上,也就是从无到有地产生概念和模式,这是机器所更加不具备的。给机器一幅图,让它用有逻辑、有语义的方式来描述这幅图,我们就会发现机器的表现非常糟糕。

这是因为机器只具有模式分类和识别的能力,它不具有概念生成糅合拆解、新概念产生的能力,也就是机器无法深层理解语义并对语义进行加工。

在这些方面我们如何去定义问题?怎么在有限的场景下去部分解决它?我认为这才是我们下一步的方向

来1024生态展区,未来真的触手可及!

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

除了技术与产品,1024开发者节还准备了多个惊喜。会场外,占地约3000平米的生态展区,汇聚了超过50家优秀合作伙伴和A.I.企业,打造了集中式、场景式、浸入式的A.I.应用体验。同时分设主题展、特色展、创新展,向现场A.I.追光者们展示着想象之中、预料之外的奇幻之约。

6433

 

24号当天上午,在1024开幕式致辞之后,安徽省政府副省长何树山带队前往展区视察,科大讯飞轮值总裁陈涛、科大讯飞高级副总裁胡戈宁陪同,并对展区情况做了相关介绍。

6434

 

安徽省政府副省长何树山视察展区

除莅临现场的领导外,还有大到要家人陪着来看机器人产品的老奶奶、小到被工程师父亲带到现场看热闹的七岁男孩,有来自斯坦福设计联盟的外国友人、谷歌lunchpad合作伙伴,还有很多在校大学生,大家都一起徜徉在这片科技的海洋中。展区1000+ A.I.黑科技产品,以人工智能产业集群内优秀合作伙伴产品展示为主,通过合作伙伴生态长廊的现场体验进行汇聚展示,凸显产品种类多样性与性能前瞻性。

6435

 

科技有情怀——中国声谷

主题展以“中国声谷”为主,展示省内智能语音及人工智能技术和产品;同时征集并邀请优秀国内外企业代表参展。特色展以科大讯飞为主,突出智能语音模拟应用和历史声音再现主题,收集并展示世界伟人、历史名人等“声音”,用技术打造一个有情怀、有互动、有感触的特色展示效果。创新展以“中国声谷”为主,展示第一届国际智能语音及人工智能产品创新大赛涌现出的优秀作品。

6436

 

自带30多个合作伙伴——图灵机器人

作为科大讯飞优质合作伙伴的图灵机器人参与了本次1024,并携带着图灵30多个合作伙伴的儿童智能硬件产品亮相。图灵是以语义对话技术为核心的技术型公司,而其合作伙伴们均是接入了图灵的NLP和讯飞的ASR,彰显出了两家公司的“飞图计划”,产品类型则涉及了智能故事机、绘本机器人、智能音箱、儿童智能手表、儿童机器人等产品。

6437

 

在现场,尤以绘本机器人luka baby, 儿童机器人熊卡,好帅豆乐以及富士康生产的Robohon 引发了众多开发者们的围观。和展区各式形态、功能的机器人各显神通,彰显了科技带给我们的乐趣。

携“网红”而来——苏宁智能

苏宁智能成立未久,主要基于苏宁物联网技术、苏宁内容优势及苏宁智慧零售生态,打造服务于家庭及个人消费者的硬件产品及智能生活解决方案。聚焦产品、内容、技术,构建苏宁智能家居平台,并布局智慧家庭硬件产品,打造苏宁智慧家庭生态。

6438

 

10月22日在苏宁易购开售的苏宁小Biu音箱•极智版,也作为本次苏宁智能的亮点产品出现在科大讯飞1024全球开发者节上。它不仅深得第一代网红苏宁小Biu音箱的”真传”,还进行了全面升级,简约机身,250g超轻巧。同时拥有强大的智能语音交互功能和海量的内容资源,呼唤“小Biu小Biu”,可实现影音娱乐、生活服务、儿童陪伴、语音购物、家居控制、百事大全等600多项智能操作。在智能操控方面,苏宁小Biu极智版可智能控制100+个品牌,5000+款智能家居家电,是家中全能型的“神助手”

宣传册被一抢而空——咪鼠鼠标

节日当天,前往咪鼠展区的人员络绎不绝,咪鼠凭借独具特色的互动演示方式以及用更自然的人机交互产品吸引了众多业内人士以及参会人员的青睐,成为当场人气颇高的展位之一。

6439

 

咪鼠展区的互动参与方式更为丰富,智能语音鼠标、U盘等各种精品礼品受到了参会人员的喜爱,在展区的咪鼠宣传册也被一抢而空。咪鼠产品使用了科大讯飞核心语音识别技术和科大讯飞AIUI 3.0技术,在现场热闹嘈杂的环境中也能精准地理解体验用户发出的指令,并在电脑自动展示用户所需,同时,在电脑文档中能通过语音准确快速地完成文字的输入,也让在场的用户体会到了更便捷的人机交互方式。

智能化妆镜——变脸机器视觉

智能化妆镜,通过在传统的镜子内嵌入显示屏、传感器与操作系统,为镜子新增了镜面显示以及人镜互动的功能,还搭载特色的“A.I.化妆师”功能,从而成为了电脑、电视、手机之外的“第四屏”。除智能化妆外,还可为厨房、浴室、美妆、健康搭建智慧生态圈。

6440

 

变脸魔镜结合了语音交互、虚拟助手、AR试妆等一系列前沿技术。基于 “智能镜面显示和交互”技术 、“三维人脸识别与重构”技术,以及人工智能语音交互技术,实现科幻般的终端人机交互,为美业、智能家居等行业应用提供了更多更有趣的解决方案。

现场30分钟开发技能——AIUI开放平台

除外部优秀合作伙伴外,AIUI开放平台也设立了展台。众所周知,AIUI是一套人机对话开发平台,全链路能力包括、语音唤醒、识别、语义理解、合成、翻译等。可以被广泛的应用于APP、机器人、智能家居、智能客服等领域。基于讯飞开放平台的生态圈,AIUI开放平台还提供面向各垂直领域的解决方案,助力终端设备快速拥有人机交互能力。

6441

 

现场,AIUI展台还举办了两场现场语音对话技能开发大赛,命题是在30分钟的时间内,完成一款语音技能的开发,并且根据技能的难度、完成度给出分数并评选出前三名。大赛吸引了现场不少通过AIUI进行开发的工程师,选手们在30分钟内都完成了相应技能的开发,并获得了相关礼品。现场的氛围吸引了众多嘉宾驻足观看,参赛的工程师们还分享了身为开发者的乐趣。

一场别开生面的粉丝见面会——AI大学

从1节课到115节课;从专注A.I.基础技术的技术专业课程体系到目前涉及A.I.商业、A.I.创业的6大完整课程体系;从第1位特聘教授到第55位,人工智能商业化专家吴霁虹、讯飞研究院院长胡国平等不同领域的行业大咖聚集在此。这一次的1024,AI大学迎来了一周年庆。

64426443

 

 

我们曾想过无数次一周年的happy ending,有温馨的、有欢笑的、有调皮可爱的,但没有任何一种版本比1024当天中午的更完美更圆满。来自全国各地200多位的同学聚集在【胡郁校长粉丝见面会】现场,他们中有的是胡郁校长万年骨灰级粉丝,有的是进入AI大学后才入坑的萌新……初次相识的同学们因为胡郁校长而变得熟识起来。胡郁校长发表了热情洋溢的讲话,我们也在现场准备了美味的西点,这一刻,我们铭记并且感恩,往后,正如校长所说:“希望我们最终能够一起不忘初心,踏实前行,我们一定能够赢得我们追光者的未来!”

除此之外,还有可以让你在做饭时轻松聊微信的“魔厨”,可以监测血压、血氧的奇智医养手表,一款无线实时AR眼镜……1024现场,各类人工智能产品让大家大开眼界。来自讯飞智能家居、智能硬件、医疗等众多展台纷纷展示A.I.在相关领域的最新应用。还有来自图像识别、公益、大数据、智能营销、智能翻译等多领域的优秀合作伙伴,如极链科技、大坝科技、小牛翻译、SAP、海德瑞丰等更是让生态展区精彩纷呈,加强了大众对A.I.的认知。

6444

 

经脉宝中医辅助诊疗

 

6445开放平台VR体验

针对如此之多的优秀合作伙伴和产品,展区现场还举行了1024你最喜爱的A.I.产品评选活动,在展台参与投票即可获得超级奖品。最终,法眼察科技、追一科技、大坝科技荣膺前三名。下午时分,锦鲤诞生,价值2999元的讯飞翻译机2.0奖品被一位幸运女孩抽中。这场积聚了我们许久努力的追光者之约,带给你的不仅是神奇,更多的,都是惊喜。

 

6446锦鲤大王

今天,9场分论坛继续惊艳绽放,一起解读了A.I.+医疗、客服、家居、车载的更多可能。你可能没机会或错过了这场盛大的1024之约,没关系,全程视频回放送上,点击阅读原文观赏。1024,明年见!

qrcode_for_gh_f97f0eb2c7e8_1280

科大讯飞1024开发者节来袭 震响A.I.强音!

A.I.追光,智缤纷,秉持“开放、合作、生态、共享”的理念,1024开发者节全新起航。

 

2017年,属于开发者的共同节日在合肥滨湖拉开大幕:4300多名“尝鲜者”共襄盛举,见证开发者教引、技术实地行、生态建设和A.I.公益四大计划发布,聆听最新A.I.观点、目睹最炫A.I.应用,更有青春洋溢的A.I.公益音乐节点燃全场。

今年,TA再次如约而至——首届世界声博会暨科大讯飞2018全球1024开发者节全面升级:7500多名A.I.追光者到场、全新《1024计划》发声、10+高质量讲演与论坛、讯飞听见M1等多项全新产品发布、眼前一亮的嘉年华活动。A.I.追光,智缤纷,秉持“开放、合作、生态、共享”的理念,1024开发者节全新起航。

64046405

 

 

上午9点30分,首届世界声博会暨科大讯飞2018全球1024开发者节正式拉开序幕。安徽省政府副省长何树山,工信部信息化和软件服务业司副司长任利华,合肥市委常委、副市长韩丁率先致辞。何树山表示,未来安徽将进一步抢占人工智能发展机遇,打造发展先行区。任利华在发言中表示,工信部下一步将着力为企业解决技术积累、行业应用和产业环境等问题。韩丁介绍道,合肥市目前人工智能企业超过350家,已构建了覆盖完整产业链的世界级产业集群。6406

 

安徽省政府副省长何树山致辞

 6407

工信部信息化和软件服务业司副司长任利华致辞

 

 6408合肥市委常委、副市长韩丁致辞

随后,何树山、任利华、韩丁与安徽省政府副秘书长汪春明、安徽省经信委主任牛弩涛、科大讯飞董事长刘庆峰共同点亮声音光波聚集的灯台,正式开启本次活动。

6409

 

共同点亮声音光波聚集的灯台

听观点,追光在路上

 

刘庆峰:人机耦合是应用落地的关键,合作与坚守热爱不可辜负

作为开发者大聚会的东道主,科大讯飞在A.I.发展、为开发者赋能上有什么最新观点?科大讯飞董事长刘庆峰以《顶天立地,共创未来》为题的演讲,给予现场聆听者最有力的强心之音。

6410

 

技术要顶天,这是万千开发者所要坚守的;而“应用才是硬道理”,可以让更多人了解A.I.能给人类生产、生活带来什么变化。面对万物互联和数据驱动的人工智能时代,讯飞在智能语音、机器翻译、机器阅读理解等方面不断拓新。面对人工智能这样一个伟大的历史进程,刘庆峰强调,正在成为全球共识的人机耦合是把人工智能真正推向应用落地的关键;因为比人类更强大的不是A.I.,而是掌握了A.I.的人类。这些掌握了A.I.的人们只有精诚合作、形成生态,才会让人工智能生生不息。

放眼未来,刘庆峰寄语的关键词是“热爱”与“坚守”。“创新就像在黑暗的泥土中撒下鲜花的种子,我相信,你所清楚预见的、热烈渴望的、真诚追求的,都会自然而然地实现。”

6411

 

 

张来武:六次产业视角下的人工智能

原科技部副部长张来武发表了《六次产业视角下的人工智能》的演讲,从摩尔定律说起、提示大家:想要做人工智能创业,决不能用工业化思维,人工智能也将开辟新经济的主战场。张来武特意提出,科大讯飞可以在智慧医疗领域创造第六产业的新契机,成为世界上第六产业无人区的先驱者

6412

 

大咖观点:开发者、智慧零售、商业地图、智能终端,这些元素如何玩转A.I.?

CSDN创始人蒋涛、苏宁科技集团COO荆伟、人工智能商业化专家吴霁虹、华为消费者BG副总裁杨涛亮相生态讲堂,分别带来精彩一课。A.I.时代,开发者要懂得“算法”为先;A.I.大脑,让智慧零售进一步释能;A.I.地图,构建TOP-A新商业;A.I.赋能,让终端体验更智慧、安全和情感化。

6413

CSDN创始人蒋涛分享

 

6415苏宁科技集团COO荆伟分享

 

6416人工智能商业化专家吴霁虹分享

 

6417华为消费者BG副总裁杨涛分享

圆桌探讨:A.I.怎么能?

A.I.赋能已成为共识,A.I.究竟如何赋能?中国科学技术大学信息学院副院长李厚强、哔哩哔哩副总裁刘曜、美国斯坦福全球创新设计课程联盟联席主席蒋里、讯飞创投董事长徐景明、讯飞医疗信息技术有限公司总经理陶晓东,在A.I.圆桌论坛环节从各自熟悉、实践的行业角度展开探讨。虽然维度不同,但嘉宾们达成共识:只有让技术真正渗透行业,才能在应用中不断迭代优化A.I.能力

6418

 

追光者:一个理工技术男的故事

他是讯飞研究院的副院长,也是被《麻省理工科技评论》评为影响全球35岁以下青年科学家之一的追光者。全球青年科学家魏思在现场分享了自己的A.I.故事,开发者的执着与力量在他身上有了最好的诠释。

6419

 

看发布,技术产品齐“上新”

新《1024计划》发布:教引、生态、公益计划升级2.0版

作为1024开发者节最重磅的环节之一,科大讯飞轮值总裁胡郁发布了全新的《1024计划》。去年的《1024计划》将A.I.与教引、生态、公益结合,经过一年时间,A.I.大学现已拥有24万学员;A.I.生态吸引超过600家开发者团队及企业入驻;A.I.公益的方言保护计划吸引500万人参与,共计收集语音20万条。

6420

 

新的《1024计划》带来A.I.教引计划2.0、A.I.生态计划2.0、A.I.公益计划2.0。通过对教引、生态、公益计划的更迭升级,让更多人通过iFLYOS实现A.I.梦想,让A.I.为公益注入更多正能量。其中,A.I.教引计划2.0将更新职业认证课程,开放200项能力;A.I.生态计划2.0将提供专属服务经理,进阶投资计划;A.I.公益计划2.0将扩大方言保护阵容,提供1000万医疗公益基金

《1024计划》将秉持信念,继续为A.I.开发者、创业者和爱好者提供指导与扶持,用科技的力量推动社会公益事业的发展,与开发者一起构建未来商业生态体系。

6421

 

新品惊艳亮相:讯飞首款转写机器人——讯飞听见M1首发

本次开发者节上,科大讯飞首款转写机器人——讯飞听见M1首发,收获无数目光聚焦。讯飞听见M1转写机器人是一款以专业录音及转文字为核心功能的智能转写机器人,可实现360度无死角的高精度拾音,存储近百小时的语音数据1小时音频5分钟出稿,满足会议、采访、课程培训等多种场景下的录音整理需求,快速提升工作效率。讯飞听见事业部总经理王玮在现场表示,这款新硬件基于讯飞听见不断的技术更新及一万多场的会议服务应用基础,相信一定会成为大家所期待的惊喜。

64226423

 

 

生态新品揭开“面纱”:iFLYOS系统与全链路loT开放平台

除了新《1024计划》,科大讯飞轮值总裁胡郁还向与会嘉宾介绍了科大讯飞打造的云端语音操作系统——iFLYOS,全链路IoT开放平台——iFLYIoT。基于这两大平台,科大讯飞持续以A.I.技术赋能家居、机器人、车载、客服、医疗、营销等各行业,打造加智能的应用场景,实现技术、服务、内容、行业全链条的全贯通。

6424

 

科大讯飞的A.I.生态在过去一年中的发展,目前基于讯飞开放平台所提供的底层技术支持,已有86万开发者打造了超过53万个不同应用。基于此,讯飞希望更进一步触达更多智能设备、搭建应用场景、服务每个用户。A.I.联万物,共创新未来,科大讯飞将坚守用人工智能赋能不同行业的愿景。

6425

 

开发者荣耀时刻:领航时代1024颁奖盛典揭晓

开发者们创造了无数的惊喜和奇迹,专属开发者的嘉奖环节——领航时代1024颁奖盛典在10月24日下午揭晓悬念。“A”爱公益项目参与者们用科技融合善意,优秀的合作伙伴们用胆识攻坚克难、用智慧运筹帷幄。2018首届“顶天立地”iFLYTEK A.I. 开发者大赛(应用赛)总决赛也在今天迎来终极比拼,杨国富、Forever Young团队分别获得方言识别挑战赛总决赛、应用开发A.I.挑战赛总决赛头名。

6426

 

1024嗨不停,“潮·玩”嘉年华

除了技术与产品,1024开发者节还有多个惊喜让你嗨起来!

会场之外,占地约3000平米的生态展区汇聚了超过50家优秀合作伙伴和A.I.企业,打造了集中式、场景式、浸入式的A.I.应用体验展示。图灵机器人、苏宁、咪鼠科技等企业均入驻其中,展示了科大讯飞生态合作伙伴及自身产品服务能力。时空漫游、未来基地等体验区吸引了大量参与者,在亲身体验中收获了知识与乐趣。

642964286427

 

 

 

当晚,罗琦、牛奶与咖啡、安子与九妹、和平饭店等知名艺人献唱A.I.公益音乐节,A.I.天使、方言歌曲与表演给音乐节画上完美句号,本次演出全部所得仍与去年一样用于“三声有幸”公益计划。

6430

 

 

10月25日,1024开发者节九场分论坛还将继续,带你一起解读A.I.+医疗、客服、家居、车载的更多可能。

6405

 

A.I.时代是所有人的时代,在通往未来的路上,我们需要广大开发者和从业者无限的创造和开拓,更需要所有人一起拥抱这个时代。科大讯飞在智能语音与人工智能的路上走过十九年,一直致力于和开发者、合作伙伴们一起用A.I.创造美好生活,1024开发者节将成为A.I.时代的新纽带,我们与你一起,共同创造和期待美好未来!

qrcode_for_gh_f97f0eb2c7e8_1280

超过80%语音开发者的共同选择