关注聋哑人,从“手”开始!

你能想象一副手套就能让聋哑人“听到”声音并开口“说话”吗?

发表于2018-11-21 18:47| 来源CSDN| 作者CSDN

你能想象一副手套就能让聋哑人听到声音并开口说话吗?这事儿听起来很神奇,却被来自福州大学的一群在校生实现啦,而且还在科大讯飞AI开发者大赛的决赛现场技压群雄,勇夺冠军。


据了解,这支颇具创新意识的冠军学生团队主要由三名研究生以及多名本科生组成,十几个人通过近半年时间,研发了一款具有社交功能的手套,主要通过手语识别、语音识别、语音合成等多项技术来破除听障人士的沟通障碍。

据了解,“E-chat”聋哑人社交手套外形与普通手套无异,但上面却是机关密布。聋哑人只要佩戴手套后,通过采集相应的手势信息就可将手语表达翻译为语音信息;相反,正常人的语音通过识别之后,又将转化为聋哑人熟悉的手语,并显示在手机屏幕上,双向翻译形成语音和手语之间的沟通闭环,这就有点儿像风靡一时的语音翻译工具。

谈及这款颇具人文情怀的发明,Forever Young团队的初创成员之一林鹏程表示,最初研发的灵感主要来自一场学校组织的手语比赛。当时我们都不懂手语,就想着先做个翻译器,后来觉得如果有一项技术可以将眼前的手语转化成声音,那不是更加方便了?而且对听障朋友会特别有意义!

此外团队成员在本科阶段也确实接触并研发过这种性质的数据手套,又同时捕捉到MEMS传感器在最近几年内迅速发展的态势,所以从最初只是想通过这次实践深入学习一些有关传感器的技术点,结果却演变成通过见证聋哑人的生活并在学校图书馆进行学生手语调查等一系列切身实践后,深刻体会到这项发明的巨大潜力,也就随着时间推移不断完善,并加以推广了。


据了解,就在去年12月,Forever Young团队凭借“Echat”聋哑人社交手套报名参加了与开发者相关的创新赛事,经过4个多月的比拼,从1700多支参赛队伍中脱颖而出,最终勇夺最佳创新项目特等奖。

关于参加这次科大讯飞主办的AI开发者大赛,团队成员表示,之前本身就使用过科大讯飞的产品并对其深入了解过,如今看到这样一个现场学习的好机会,就抱着试一试的想法来了。没想到会有这么大的惊喜,而且能够为不懂手语的朋友与听障人士更便捷准确的交流带来助力,很有成就感。

深入探讨这款酷产品,我们发现,从技术方面,Forever Young团队通过参加各类比赛切磋,带来了技术层面一次又一次的成功、精准的迭代,而且手语算法作为团队的核心竞争力,目前已经申请了国家级专利。历经发展,就在今年4月,团队首次尝试使用智能手机作为平台,并对算法进行提升,经过不断努力手套如今已能识别近300个词汇和短句。

尽管这项创新应用已经获得了很多关注以及鼓励,但研发过程所中所面对的困难还是让人长舒一口气。

硬件方面,我们希望产品完工后足够轻便,所以换了好几十版电路以及许多元器件的封装,最终为了可以更好集成在一块小电路板上。具体来说,我们开始使用的是0805的封装,后来又改用了0603,这样前前后后换了十几版电路,遗憾的是至今还没有达到我们理想中的大小,仍旧需要不断尝试。团队成员说。

除了硬件层面,软件方其实也遇到了一些小问题。Forever Young团队的初创成员之一林鹏程总结道,其实开始从底层的驱动设计入手,就出现了很多bug,经过调试之后才有相对安全的范围以及稳定结果;另外对手势识别的设计方面,挑战是最大的:从最开始的机器学习过渡到深度学习方式,这是一个不断改进的过程,虽然目前已经达到了89%的识别率,但未来进步的空间还很大;此外对手套各项功能的提升,一直面临着不小的资金瓶颈,如果想要实现手套完全脱离手机这种智能化程度,未来还需要找到伯乐一枚共同完善设计。

不过可喜的一点,通过参加比赛,团队成员纷纷从科大讯飞的语音技术上收获启发,将作品中加入讯飞的语音技术后收效明显,未来还将在识别能力以及硬件的外观方面完成更进一步的改进,更好发挥AIUI的能力,通过关键词语义理解技术来弥补词汇量的不足,实践更自然的表达。

谈到对未来智慧时代的畅想,林鹏程觉得,在未来的发展中,即使AI不能完全替代人类枯燥乏味的工作,也至少可以帮助人类减少这类工作的重复执行,提高效率并解放双手根本不在话下;人们最起码的居家生活会不间断涌入AI 产品以及应用,就像如今风靡的智能音箱一样,丰富知识并拓宽信息获取的渠道将变得异常简单,在此背景下,来源于生活并助力生活便捷的手套只是一个开始。

新能力上线 | 精准识别2万种物体,还能看人脸测颜值!

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

划重点

科大讯飞能力星云计划的优秀AI服务合作伙伴——图普科技,带来人脸识别、自然场景识别新能力!戳一下了解详情:人脸特征分析场景识别物体识别

如今,打开微信朋友圈,一条条动态几乎没有不配图的。晒风景,晒美食,晒自拍……一天不“晒图”简直浑身难受。

 

全世界每天每分钟会上传超过5亿张图片到互联网,随着高速网络的普及与智能设备的发展,图片已成为用户表达、事件记录中不可或缺的部分。内容审核、照片管理、营销推广等需要处理大量图片的工作对图像识别能力的需求正在不断增强。

对于开发图像智能识别产品的开发者,想让产品脱颖而出,不仅要让识别高效精准,还要能通过独一无二的功能带来全新的玩法,比如可以给好友的自拍评一个颜值指数、从一张晒吃照片中迅速获得美食信息……

现在,由科大讯飞能力星云计划的优秀A.I.服务合作伙伴,图普科技提供的人脸特征分析、场景识别、物体识别在讯飞开放平台上线!让你可以开发拥有更多样化智能识别能力的产品。

 

人脸特征分析

颜值、表情多维度识别,准确度99.5%

基于深度学习算法,可以检测图像中的人脸并进行一系列人脸相关的特征分析,当前支持识别出包括性别、颜值、年龄、表情多维度人脸信息。可用作基础人脸信息的解析,智能分析人群特征。

 

年龄

对上传的图片中人物的年龄段进行判断分类,如婴儿、青年、中年、老年等。

性别

识别出上传的图片中人物的性别。对露出全脸、侧脸的真人或动漫人物进行“男性”、“女性”的分类。图中有多个可辨别面部特征的人或动漫人物时识别为“多人”。对画面无人、面部未显示或无法辨认的图片归为“其它”。

颜值

对上传的图片中人物颜值进行分析,给出对应结果:漂亮、好看、普通、低颜值等。

表情

识别出图片中人物的表情特征:喜悦、愤怒、悲伤、惊恐、厌恶等。

能力优势

1、准确度达99.5% 

对于日常生活中的人脸,准确率高达 99.5%。

2、可适应多种复杂环境

在遮挡、光照不佳、头部姿态变化等复杂场景下均具备高性能表现。

3、处理高效稳定

毫秒级响应速度,在 PC、移动设备上均能迅速处理。

可应用场景

1、客流属性识别 

通过对图像或视频中的人脸特征分析,分析客流的性别、年龄等属性。

2、广告精准投放

通过人脸特征分析,可以实时分析受众人群的性别、年龄等特征和分布状况,精准投放广告。

3、线下营销

基于人脸特征分析,商场、餐厅等场所可展开颜值测试类的互动营销活动,增加与顾客的互动。

自然场景识别

覆盖数十种场景,2万种物体

场景识别

精准识别自然环境下数十种场景,让智能相册管理、照片检索和分类等基于场景的应用展现得更加直观。

对实际应用场景分为室内、室外、自然风景和其他四大分类,每个分类都会按照实际场景细分为多个类别,根据用户上传的图片里对应的实际场景返回结果。

 

物体识别

全球领先的通用物体检测算法,有效检测图像中的动物、交通工具、生活家具等2万多种生活常见物体。可分析图片主要内容,帮助技术团队对图像语义进行自动化解读。

 

能力优势

1、超高准确度

全球领先的智能识别算法,让图片内的场景和物体可以被准确识别。

2、功能强大

支持数十种场景、数万种物体识别,并在持续增加中。

3、适应复杂环境

在模糊、倾斜、光照不均、背景杂乱等情况下均保持高性能表现。

4、处理高效稳定

毫秒级响应速度,并在实际场景中不断优化性能表现。

可应用场景

1、拍照识图

自动识别所拍照片的内容,减少人工录入成本及出错率。

2、图片内容检索

根据图片场景自动分类,建立快速检索系统。

3、智能相册

根据用户上传照片进行主体检测,精准识别照片信息,批量读图实现相册智能分类管理。

4、内容及广告推荐

识别用户经常浏览的网页中的图片信息,推送相关内容或广告。

5、以图搜物

在不知道图片中物体的名称时,自动化检测并展示图片内的物体信息,方便进一步搜索物体的相关内容。

来官网进一步了解吧!
人脸特征分析

场景识别

物体识别

A.I.能力星云

除了自研能力,科大讯飞还与业内优秀的技术厂商进行战略互补形式的合作。带来能力星云计划

讯飞开放平台自2010年成立以来,经过8年的积累,现已开放近百项A.I.能力,赋能88万开发者团队。在能力星云中,A.I.服务合作伙伴通过讯飞开放平台的桥梁,为更多的A.I.开发者和爱好者提供服务,让技术为在更多场景中落地,为各行业赋能。

A.I.服务合作伙伴在能力星云中拥有:

官网专栏产品页

讯飞开放平台上线A.I.能力详情页,产品介绍,接入流程,能力提供方等信息一应俱全!

全渠道推广宣传

线上渠道,线下市场活动,会针对A.I.服务合作伙伴的产品进行全网宣传和推广,扩大影响力,吸引更多开发者使用A.I.能力!

商机即时对接

专业团队负责商机梳理和对接,A.I.新能力商机将会即时处理,定期同步给A.I.服务合作伙伴,带来更多商业资源引流。

共享开放平台开发者

讯飞开放平台丰富的开发者将率先体验A.I.新能力,并应用在产品中,形成更多的合作案例以及解决方案!

未来,能力星云将让厂商的实用级核心技术陆续与讯飞的核心能力一起,汇聚成A.I.能力的星云,释放巨大的组合效应!

科大讯飞魏思:技术在不断发展的同时,也在朝着历史「回归」

技术在不断发展的同时,也在朝着历史「回归」
如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向.

在刚刚结束的全球1024开发者节上,科大讯飞研究院魏思就模式识别和人工智能的发展关系和发展历史问题,做了他自己15年来的A.I.追光故事分享。

他在分享中提出如下观点:

技术在不断发展的同时,也在朝着历史「回归」

如何去定义这些问题,并在有限的场景下去部分解决问题,才是我们下一步的发展方向

……

这些观点是非常值得我们去学习和思考的,我们将魏思院长的演讲文稿整理出来,希望对大家未来的研究之路能够有所启发。

以下为演讲稿的文字整理,有部分微调

我叫魏思,来自科大讯飞研究院,我大概有15年的时间一直在从事模式识别方面的工作。

模式识别大概有60、70年的发展历史,最近这十年好像行业技术发展得很好,但实际上我认为它是朝着历史回归了

目前所有研究的方向、模型都回归到了条件相关性或者是条件依赖性的数学模型上,而此模型是在80年代中期由美国科学家Judea Pearl提出来的,后来这套模型演变成了图模型,目前的基于深度学习的模型和图模型在数学上的变化非常小,但是实际效果变化却非常大。

接下来我会从4个方向去讲述这几十年来技术的发展脉络。这4个方向分别是人类或者动物的神经元信号的传递机理和人工神经网络;统计和模式识别;语音和语言方面的研究;图像识别的研究进展

 

点击查看魏思演讲全部视频

从生物神经网络到人工神经网络

18世纪,意大利的科学家伽伐尼发现青蛙的蛙腿放在金属上会引起抽搐,这是人类第一次发现肌肉可以由电刺激而产生动作,于是伽伐尼猜测了生物电的存在。

1920年阿德里安通过实验证明了神经元动作电位的存在。而早在20世纪初的时候,科学家伯恩斯坦提出了静息膜电位的概念,并发现静息膜电位为-70mv,同时他猜测带电物体穿越细胞膜或许是动作电位产生的机理。

1939年霍奇金和赫胥黎通过枪乌贼神经元的系列精细实验证明了神经元的细胞内外确实存在电流,并测量出了动作电位的大小(110mv)。他们发现是钠离子的内流形成了真正的动作电位,钠离子内流之后钾离子外流保持细胞内外的静息膜电位然后他们猜测了两件事情,第一,膜上有离子通道,第二,存在离子转运蛋白保持膜内外离子平衡,这些后来都被分子生物学所证明。静息膜电位,离子内外流动和转运蛋白一起完成了动作电位的产生。
h'y640

 

魏思现场演讲

同期(1920-1930)Loewi,Dale,Katz发现了神经递质乙酰胆碱,乙酰胆碱引起离子通道打开从而在神经元间形成动作电位,完成了信息在不同神经元之间的传递,至此,神经元的信号传递分子机理基本梳理清楚了。

在此基础上,1943年McCulloch和Pitts提出一种非常简单的数学模型(MP模型)去近似神经元的信号处理机制。1958年美国科学家罗森布拉特首次发现可以用MP模型,去完成很简单的模式识别任务,也就是让机器识别物体和数字,这也是第一代神经网络,我们称之为感知机

我们把那个阶段称之为神经网络第一次浪潮,但很快浪潮就过去了,因为当时的感知机的识别性能比较低,在实际中很难发挥作用。

同时在50年代,Kuffler,Hubel和Wiesel发现了视觉神经系统的工作机理,原来视觉不是响应弥散光的照射,而是响应不同形状的光照。他们创造性的提出了感受野的概念,现在我们知道这就是滤波器。

受此研究的影响,贝尔实验室的科学家LeCun在80年代末90年代初想到了利用卷积或者形状响应机理设计一种算法去进行文字的识别,但当时,模式识别界被SVM主导,这个发明并没有引起很大的反响。

640了魏思现场演讲

同时,从80年代到90年代,Hopfield提出了动态神经网络,Schmidhuber和Hochreiter提出带遗忘机制的动态神经网络模型。但那时并不被看好,直到近几年这个模型才逐渐流行开来。2006年以后,Hinton复兴了深度学习,并在语音和图像上取得了突破性进展,深度学习也获得了极大的应用这就是我们说的从神经元的工作机理,到人工神经网络的发展历史。

 

统计和模式识别的发展

统计的雏形是概率和计算而最早的广为人知的统计算法是最小二乘法,它是在1805年由勒让德首先发明的,并在1824年由高斯用误差分析的方式重新阐述以后获得了极大的影响力,是前模式识别时代应用最广泛的算法。

1885年弗朗西斯·高尔顿发明了回归,同时利用数据统计和图形化首次得到了二维正态密度的分布图和相关系数等重要概念,要说现代统计肇始于高尔顿也不为过。

高尔顿赞助卡尔.皮尔逊在伦敦大学学院(UC London)成立了统计实验室,造就了20世纪早期开始的统计学革命。费舍尔(Sir R. A. Fisher)在1936年提出的线性区分性分析(LDA),纽曼,爱根·皮尔逊(卡尔·皮尔逊的儿子)同期提出的似然比检验(Likelihood Ratio Test)则可以称之为现代分类器的雏形。这些概念后来演变成了现代模式识别体系。

1950年美国科学家Abraham Wald系统地将“统计决策理论”阐述清楚。从那时候开始,模式识别慢慢成熟,我们有了很多可用的模型,比如说线性分类器、树分类器,GMM模型,HMM模型等。

这里面特别值得一提的就是条件相关性模型,1985年Judea Pearl提出来贝叶斯网络, 此后,Judea Pearl对图模型的学习、推理等进行了系统性的研究,并解决了一系列数学问题他在科普书(The book of why)中自豪的称自己的工作解决了人类智慧的秘密(寻找事物之间的因果关系),他也因此得了2011年图灵奖。

64045魏思现场演讲

但事实上图模型的学习和推理非常难(数学上的术语是图模型的学习是NP-Hard的),在实际应用中的效果并不是很好。在2006年到2010年期间,以Hinton为代表的人工智能学者发现在用神经网络让模型通过数据和算法自动去获数据之间以及数据和标签之间的条件相关性,可以获得非常好的效果

从上面我们可看到,模式识别也慢慢地发展到了对条件相关性的利用和训练方向上来了。

 

语音和语言的发展

在语音方面我会讲两个方向,语音合成和语音识别。

语音合成在90年代以前都只是实验室的项目,到了90年代后,研究人员发现可以通过预先录制很多的语音,在实际使用的时候把数据拿出来进行拼接来进行语音合成。奇怪的是,这么简单的做法,居然可以获得相当好的效果。但是这样得到的语音连贯度和平滑度不够,所以研究人员设计了很多的启发式的规则和方法,去调整语音合成的连贯度和平滑度。

2000年,日本科学家Tokuda把语音识别中的常用方法HMM用到了语音合成上,提出了新的语音合成方法,虽然在当时它的效果不是很好,但很快人们发现用这种新的方法,在语音合成的效率、平滑度问题上,都有很好的表现。

2016年年Google提出了WaveNet,我们也利用条件自回归模型取得了较大进展。目前,由于利用了长时的相关性,我们的语音合成效果非常棒,语音合成也慢慢收敛到条件相关性上来了。

语音识别历史就更长了,而且更有意思。 1971年JennyBaum发明了HMM,1975年James Baker把HMM用到了语音识别上80年代到90年代,GMM/HMM的EM算法被几个小组(CMU,IBM,Bell lab)重新定义(1977年Dempster就已经从数学上把EM算法做出来了),一批科学家从无到有地将EM算法和HMM语音识别上的整套体系建立起来了。自此语音识别被HMM主导并由于HTK(HMM Toolkit, Cambridge)的出现而得到了大面积的推广。

2010年,Hinton首次提出利用深度网络结合HMM进行语音识别,并和微软研究院俞栋和邓力合作在SWB上获得了相对30%的提升,从此语音识别翻开了新的一页。

综上所述,可以看出语音合成和语音识别也都收敛到条件相关性的数学模型上来了


64088

 

魏思现场演讲

下面,我们来看看语言。

在很早的时候,语言是定性和分析的科学。

到了90年代,随着HMM模型的普及,特别是HMM在机器翻译上的成功应用,语言也进入了统计的时代。

2001年JohnLafferty发明了条件随机场模型,这个模型考虑了特征域和标签域的条件相关性(相比HMM,多考虑了标签域的相关性),由于考虑到了更多的条件相关性,条件随机场的效果好过其他的模型,也获得了大量的应用在2001年之后,条件随机场几乎主导了需要处理动态信息的自然语言处理系统。

2012年,Minklov首次利用(RNN)语言模型取得了语音识别的显著提升,同时他们发现可以利用RNN语言模型生成符合语法规范的句子,而在此之前机器自动生成合乎语法规范的句子几乎是不可能完成的任务。

2015年,Google和Universityof Montreal几乎同时提出了利用编码解码机制去进行机器翻译,再加上注意机制(Attention)的引入,机器翻译在过去的几年间发生了翻天覆地的变化。机器翻译的效果在简单场景下已经达到了人工的水平。而这套模型也是利用了神经网络实现了特征域和标签域的全部条件相关性

由上我们可以看到,语音和语言,也都收敛到了条件相关性模型上了。

 

图像识别的研究进展

图像识别的发展可以分为2个阶段, 2012年之前和2012年之后。

在2012年以前,大部分图像识别类的任务都是在发明非常精巧的算法,或者定义更加复杂有效的滤波器。这些工作虽然比较漂亮,但在实际复杂场景下的推广性不佳,如说人脸识别和物体识别。视觉识别方面(如人脸,物体,物体分割等)的研究也一直没有获得大规模应用。

2012年Krizhevsky和Hinton首次提出了利用多层子卷积神经网络来进行图像识别在2012年的ImageNet比赛上遥遥领先传统方案,以显著优势获得第一名。从2012年以后,深度卷积网络几乎主导了计算机视觉的研究,现在几乎所有的视觉类任务都可以看到深度卷积网络。

为什么会出现这样的现象?实际上所有人工设计的分类器或者特征,都是在试图用人工的方法去找到特征之间的条件相关性,这是非常困难的。

而深度卷积网络让机器通过海量数据自动去提取条件相关性,这样可以发现非常复杂和隐藏的相关性

由此可见,图像识别也收敛到了条件相关性上来了。
64000

 

魏思现场演讲

下一步的发展方向

我讲完了刚才的四个方向,大家会发现在模式识别的各种实际应用领域,模型通通都回归到条件相关性这个数学概念上

唯一的区别是,我们现在找到了非常棒的一个动态模型,它能够比较自然地去描述条件相关性,然后我们再给模型很多训练数据,用基于梯度下降的BP算法去训练此模型,便可以在实际应用中取得很好的效果。

看到这里大家可能要问,这便是人工智能了吗?

不,并不是。

智能和我们现在算法的差距非常远。我们现在的算法是给定了模式、给定输入,通过模型找到模式和输入之间的条件相关性,仅此而已。

64099魏思现场演讲

但是人类的智能是什么?人类的智能并不是在给定的模式下面做分类。人类会新定义模式(发现新模式)、拆解模式(进行模式重组和加工),所有这些都是现在我们模型所不具备的

总结来说,现在的模型可以让我们非常自如地去发现数据中的复杂的条件相关性或者依赖关系。但由于这种关系可能是远距和复杂的,直接利用梯度信号训练,我们需要非常多的训练数据。

现在的模型虽然好,但是它的实现原理和人类机理差别还是很大的。人是通过无监督学习,把所有的结构或者相关性梳理好,然后通过有监督的学习去进行标注和贴标签并不是直接用有监督数据来进行模型训练的(请大家回顾一下小孩子学习语言和进行图像识别和分类时,他得到的有监督数据是非常有限的)。

同时,人类智能更多体现在认知上,也就是从无到有地产生概念和模式,这是机器所更加不具备的。给机器一幅图,让它用有逻辑、有语义的方式来描述这幅图,我们就会发现机器的表现非常糟糕。

这是因为机器只具有模式分类和识别的能力,它不具有概念生成糅合拆解、新概念产生的能力,也就是机器无法深层理解语义并对语义进行加工。

在这些方面我们如何去定义问题?怎么在有限的场景下去部分解决它?我认为这才是我们下一步的方向

来1024生态展区,未来真的触手可及!

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

为期两天的1024开发者节已圆满结束,除主论坛、分论坛外,生态展区也吸引了很多观众驻足观看、体验。在这里,我们仿佛以最近的距离靠近未来。

除了技术与产品,1024开发者节还准备了多个惊喜。会场外,占地约3000平米的生态展区,汇聚了超过50家优秀合作伙伴和A.I.企业,打造了集中式、场景式、浸入式的A.I.应用体验。同时分设主题展、特色展、创新展,向现场A.I.追光者们展示着想象之中、预料之外的奇幻之约。

6433

 

24号当天上午,在1024开幕式致辞之后,安徽省政府副省长何树山带队前往展区视察,科大讯飞轮值总裁陈涛、科大讯飞高级副总裁胡戈宁陪同,并对展区情况做了相关介绍。

6434

 

安徽省政府副省长何树山视察展区

除莅临现场的领导外,还有大到要家人陪着来看机器人产品的老奶奶、小到被工程师父亲带到现场看热闹的七岁男孩,有来自斯坦福设计联盟的外国友人、谷歌lunchpad合作伙伴,还有很多在校大学生,大家都一起徜徉在这片科技的海洋中。展区1000+ A.I.黑科技产品,以人工智能产业集群内优秀合作伙伴产品展示为主,通过合作伙伴生态长廊的现场体验进行汇聚展示,凸显产品种类多样性与性能前瞻性。

6435

 

科技有情怀——中国声谷

主题展以“中国声谷”为主,展示省内智能语音及人工智能技术和产品;同时征集并邀请优秀国内外企业代表参展。特色展以科大讯飞为主,突出智能语音模拟应用和历史声音再现主题,收集并展示世界伟人、历史名人等“声音”,用技术打造一个有情怀、有互动、有感触的特色展示效果。创新展以“中国声谷”为主,展示第一届国际智能语音及人工智能产品创新大赛涌现出的优秀作品。

6436

 

自带30多个合作伙伴——图灵机器人

作为科大讯飞优质合作伙伴的图灵机器人参与了本次1024,并携带着图灵30多个合作伙伴的儿童智能硬件产品亮相。图灵是以语义对话技术为核心的技术型公司,而其合作伙伴们均是接入了图灵的NLP和讯飞的ASR,彰显出了两家公司的“飞图计划”,产品类型则涉及了智能故事机、绘本机器人、智能音箱、儿童智能手表、儿童机器人等产品。

6437

 

在现场,尤以绘本机器人luka baby, 儿童机器人熊卡,好帅豆乐以及富士康生产的Robohon 引发了众多开发者们的围观。和展区各式形态、功能的机器人各显神通,彰显了科技带给我们的乐趣。

携“网红”而来——苏宁智能

苏宁智能成立未久,主要基于苏宁物联网技术、苏宁内容优势及苏宁智慧零售生态,打造服务于家庭及个人消费者的硬件产品及智能生活解决方案。聚焦产品、内容、技术,构建苏宁智能家居平台,并布局智慧家庭硬件产品,打造苏宁智慧家庭生态。

6438

 

10月22日在苏宁易购开售的苏宁小Biu音箱•极智版,也作为本次苏宁智能的亮点产品出现在科大讯飞1024全球开发者节上。它不仅深得第一代网红苏宁小Biu音箱的”真传”,还进行了全面升级,简约机身,250g超轻巧。同时拥有强大的智能语音交互功能和海量的内容资源,呼唤“小Biu小Biu”,可实现影音娱乐、生活服务、儿童陪伴、语音购物、家居控制、百事大全等600多项智能操作。在智能操控方面,苏宁小Biu极智版可智能控制100+个品牌,5000+款智能家居家电,是家中全能型的“神助手”

宣传册被一抢而空——咪鼠鼠标

节日当天,前往咪鼠展区的人员络绎不绝,咪鼠凭借独具特色的互动演示方式以及用更自然的人机交互产品吸引了众多业内人士以及参会人员的青睐,成为当场人气颇高的展位之一。

6439

 

咪鼠展区的互动参与方式更为丰富,智能语音鼠标、U盘等各种精品礼品受到了参会人员的喜爱,在展区的咪鼠宣传册也被一抢而空。咪鼠产品使用了科大讯飞核心语音识别技术和科大讯飞AIUI 3.0技术,在现场热闹嘈杂的环境中也能精准地理解体验用户发出的指令,并在电脑自动展示用户所需,同时,在电脑文档中能通过语音准确快速地完成文字的输入,也让在场的用户体会到了更便捷的人机交互方式。

智能化妆镜——变脸机器视觉

智能化妆镜,通过在传统的镜子内嵌入显示屏、传感器与操作系统,为镜子新增了镜面显示以及人镜互动的功能,还搭载特色的“A.I.化妆师”功能,从而成为了电脑、电视、手机之外的“第四屏”。除智能化妆外,还可为厨房、浴室、美妆、健康搭建智慧生态圈。

6440

 

变脸魔镜结合了语音交互、虚拟助手、AR试妆等一系列前沿技术。基于 “智能镜面显示和交互”技术 、“三维人脸识别与重构”技术,以及人工智能语音交互技术,实现科幻般的终端人机交互,为美业、智能家居等行业应用提供了更多更有趣的解决方案。

现场30分钟开发技能——AIUI开放平台

除外部优秀合作伙伴外,AIUI开放平台也设立了展台。众所周知,AIUI是一套人机对话开发平台,全链路能力包括、语音唤醒、识别、语义理解、合成、翻译等。可以被广泛的应用于APP、机器人、智能家居、智能客服等领域。基于讯飞开放平台的生态圈,AIUI开放平台还提供面向各垂直领域的解决方案,助力终端设备快速拥有人机交互能力。

6441

 

现场,AIUI展台还举办了两场现场语音对话技能开发大赛,命题是在30分钟的时间内,完成一款语音技能的开发,并且根据技能的难度、完成度给出分数并评选出前三名。大赛吸引了现场不少通过AIUI进行开发的工程师,选手们在30分钟内都完成了相应技能的开发,并获得了相关礼品。现场的氛围吸引了众多嘉宾驻足观看,参赛的工程师们还分享了身为开发者的乐趣。

一场别开生面的粉丝见面会——AI大学

从1节课到115节课;从专注A.I.基础技术的技术专业课程体系到目前涉及A.I.商业、A.I.创业的6大完整课程体系;从第1位特聘教授到第55位,人工智能商业化专家吴霁虹、讯飞研究院院长胡国平等不同领域的行业大咖聚集在此。这一次的1024,AI大学迎来了一周年庆。

64426443

 

 

我们曾想过无数次一周年的happy ending,有温馨的、有欢笑的、有调皮可爱的,但没有任何一种版本比1024当天中午的更完美更圆满。来自全国各地200多位的同学聚集在【胡郁校长粉丝见面会】现场,他们中有的是胡郁校长万年骨灰级粉丝,有的是进入AI大学后才入坑的萌新……初次相识的同学们因为胡郁校长而变得熟识起来。胡郁校长发表了热情洋溢的讲话,我们也在现场准备了美味的西点,这一刻,我们铭记并且感恩,往后,正如校长所说:“希望我们最终能够一起不忘初心,踏实前行,我们一定能够赢得我们追光者的未来!”

除此之外,还有可以让你在做饭时轻松聊微信的“魔厨”,可以监测血压、血氧的奇智医养手表,一款无线实时AR眼镜……1024现场,各类人工智能产品让大家大开眼界。来自讯飞智能家居、智能硬件、医疗等众多展台纷纷展示A.I.在相关领域的最新应用。还有来自图像识别、公益、大数据、智能营销、智能翻译等多领域的优秀合作伙伴,如极链科技、大坝科技、小牛翻译、SAP、海德瑞丰等更是让生态展区精彩纷呈,加强了大众对A.I.的认知。

6444

 

经脉宝中医辅助诊疗

 

6445开放平台VR体验

针对如此之多的优秀合作伙伴和产品,展区现场还举行了1024你最喜爱的A.I.产品评选活动,在展台参与投票即可获得超级奖品。最终,法眼察科技、追一科技、大坝科技荣膺前三名。下午时分,锦鲤诞生,价值2999元的讯飞翻译机2.0奖品被一位幸运女孩抽中。这场积聚了我们许久努力的追光者之约,带给你的不仅是神奇,更多的,都是惊喜。

 

6446锦鲤大王

今天,9场分论坛继续惊艳绽放,一起解读了A.I.+医疗、客服、家居、车载的更多可能。你可能没机会或错过了这场盛大的1024之约,没关系,全程视频回放送上,点击阅读原文观赏。1024,明年见!

qrcode_for_gh_f97f0eb2c7e8_1280

科大讯飞1024开发者节来袭 震响A.I.强音!

A.I.追光,智缤纷,秉持“开放、合作、生态、共享”的理念,1024开发者节全新起航。

 

2017年,属于开发者的共同节日在合肥滨湖拉开大幕:4300多名“尝鲜者”共襄盛举,见证开发者教引、技术实地行、生态建设和A.I.公益四大计划发布,聆听最新A.I.观点、目睹最炫A.I.应用,更有青春洋溢的A.I.公益音乐节点燃全场。

今年,TA再次如约而至——首届世界声博会暨科大讯飞2018全球1024开发者节全面升级:7500多名A.I.追光者到场、全新《1024计划》发声、10+高质量讲演与论坛、讯飞听见M1等多项全新产品发布、眼前一亮的嘉年华活动。A.I.追光,智缤纷,秉持“开放、合作、生态、共享”的理念,1024开发者节全新起航。

64046405

 

 

上午9点30分,首届世界声博会暨科大讯飞2018全球1024开发者节正式拉开序幕。安徽省政府副省长何树山,工信部信息化和软件服务业司副司长任利华,合肥市委常委、副市长韩丁率先致辞。何树山表示,未来安徽将进一步抢占人工智能发展机遇,打造发展先行区。任利华在发言中表示,工信部下一步将着力为企业解决技术积累、行业应用和产业环境等问题。韩丁介绍道,合肥市目前人工智能企业超过350家,已构建了覆盖完整产业链的世界级产业集群。6406

 

安徽省政府副省长何树山致辞

 6407

工信部信息化和软件服务业司副司长任利华致辞

 

 6408合肥市委常委、副市长韩丁致辞

随后,何树山、任利华、韩丁与安徽省政府副秘书长汪春明、安徽省经信委主任牛弩涛、科大讯飞董事长刘庆峰共同点亮声音光波聚集的灯台,正式开启本次活动。

6409

 

共同点亮声音光波聚集的灯台

听观点,追光在路上

 

刘庆峰:人机耦合是应用落地的关键,合作与坚守热爱不可辜负

作为开发者大聚会的东道主,科大讯飞在A.I.发展、为开发者赋能上有什么最新观点?科大讯飞董事长刘庆峰以《顶天立地,共创未来》为题的演讲,给予现场聆听者最有力的强心之音。

6410

 

技术要顶天,这是万千开发者所要坚守的;而“应用才是硬道理”,可以让更多人了解A.I.能给人类生产、生活带来什么变化。面对万物互联和数据驱动的人工智能时代,讯飞在智能语音、机器翻译、机器阅读理解等方面不断拓新。面对人工智能这样一个伟大的历史进程,刘庆峰强调,正在成为全球共识的人机耦合是把人工智能真正推向应用落地的关键;因为比人类更强大的不是A.I.,而是掌握了A.I.的人类。这些掌握了A.I.的人们只有精诚合作、形成生态,才会让人工智能生生不息。

放眼未来,刘庆峰寄语的关键词是“热爱”与“坚守”。“创新就像在黑暗的泥土中撒下鲜花的种子,我相信,你所清楚预见的、热烈渴望的、真诚追求的,都会自然而然地实现。”

6411

 

 

张来武:六次产业视角下的人工智能

原科技部副部长张来武发表了《六次产业视角下的人工智能》的演讲,从摩尔定律说起、提示大家:想要做人工智能创业,决不能用工业化思维,人工智能也将开辟新经济的主战场。张来武特意提出,科大讯飞可以在智慧医疗领域创造第六产业的新契机,成为世界上第六产业无人区的先驱者

6412

 

大咖观点:开发者、智慧零售、商业地图、智能终端,这些元素如何玩转A.I.?

CSDN创始人蒋涛、苏宁科技集团COO荆伟、人工智能商业化专家吴霁虹、华为消费者BG副总裁杨涛亮相生态讲堂,分别带来精彩一课。A.I.时代,开发者要懂得“算法”为先;A.I.大脑,让智慧零售进一步释能;A.I.地图,构建TOP-A新商业;A.I.赋能,让终端体验更智慧、安全和情感化。

6413

CSDN创始人蒋涛分享

 

6415苏宁科技集团COO荆伟分享

 

6416人工智能商业化专家吴霁虹分享

 

6417华为消费者BG副总裁杨涛分享

圆桌探讨:A.I.怎么能?

A.I.赋能已成为共识,A.I.究竟如何赋能?中国科学技术大学信息学院副院长李厚强、哔哩哔哩副总裁刘曜、美国斯坦福全球创新设计课程联盟联席主席蒋里、讯飞创投董事长徐景明、讯飞医疗信息技术有限公司总经理陶晓东,在A.I.圆桌论坛环节从各自熟悉、实践的行业角度展开探讨。虽然维度不同,但嘉宾们达成共识:只有让技术真正渗透行业,才能在应用中不断迭代优化A.I.能力

6418

 

追光者:一个理工技术男的故事

他是讯飞研究院的副院长,也是被《麻省理工科技评论》评为影响全球35岁以下青年科学家之一的追光者。全球青年科学家魏思在现场分享了自己的A.I.故事,开发者的执着与力量在他身上有了最好的诠释。

6419

 

看发布,技术产品齐“上新”

新《1024计划》发布:教引、生态、公益计划升级2.0版

作为1024开发者节最重磅的环节之一,科大讯飞轮值总裁胡郁发布了全新的《1024计划》。去年的《1024计划》将A.I.与教引、生态、公益结合,经过一年时间,A.I.大学现已拥有24万学员;A.I.生态吸引超过600家开发者团队及企业入驻;A.I.公益的方言保护计划吸引500万人参与,共计收集语音20万条。

6420

 

新的《1024计划》带来A.I.教引计划2.0、A.I.生态计划2.0、A.I.公益计划2.0。通过对教引、生态、公益计划的更迭升级,让更多人通过iFLYOS实现A.I.梦想,让A.I.为公益注入更多正能量。其中,A.I.教引计划2.0将更新职业认证课程,开放200项能力;A.I.生态计划2.0将提供专属服务经理,进阶投资计划;A.I.公益计划2.0将扩大方言保护阵容,提供1000万医疗公益基金

《1024计划》将秉持信念,继续为A.I.开发者、创业者和爱好者提供指导与扶持,用科技的力量推动社会公益事业的发展,与开发者一起构建未来商业生态体系。

6421

 

新品惊艳亮相:讯飞首款转写机器人——讯飞听见M1首发

本次开发者节上,科大讯飞首款转写机器人——讯飞听见M1首发,收获无数目光聚焦。讯飞听见M1转写机器人是一款以专业录音及转文字为核心功能的智能转写机器人,可实现360度无死角的高精度拾音,存储近百小时的语音数据1小时音频5分钟出稿,满足会议、采访、课程培训等多种场景下的录音整理需求,快速提升工作效率。讯飞听见事业部总经理王玮在现场表示,这款新硬件基于讯飞听见不断的技术更新及一万多场的会议服务应用基础,相信一定会成为大家所期待的惊喜。

64226423

 

 

生态新品揭开“面纱”:iFLYOS系统与全链路loT开放平台

除了新《1024计划》,科大讯飞轮值总裁胡郁还向与会嘉宾介绍了科大讯飞打造的云端语音操作系统——iFLYOS,全链路IoT开放平台——iFLYIoT。基于这两大平台,科大讯飞持续以A.I.技术赋能家居、机器人、车载、客服、医疗、营销等各行业,打造加智能的应用场景,实现技术、服务、内容、行业全链条的全贯通。

6424

 

科大讯飞的A.I.生态在过去一年中的发展,目前基于讯飞开放平台所提供的底层技术支持,已有86万开发者打造了超过53万个不同应用。基于此,讯飞希望更进一步触达更多智能设备、搭建应用场景、服务每个用户。A.I.联万物,共创新未来,科大讯飞将坚守用人工智能赋能不同行业的愿景。

6425

 

开发者荣耀时刻:领航时代1024颁奖盛典揭晓

开发者们创造了无数的惊喜和奇迹,专属开发者的嘉奖环节——领航时代1024颁奖盛典在10月24日下午揭晓悬念。“A”爱公益项目参与者们用科技融合善意,优秀的合作伙伴们用胆识攻坚克难、用智慧运筹帷幄。2018首届“顶天立地”iFLYTEK A.I. 开发者大赛(应用赛)总决赛也在今天迎来终极比拼,杨国富、Forever Young团队分别获得方言识别挑战赛总决赛、应用开发A.I.挑战赛总决赛头名。

6426

 

1024嗨不停,“潮·玩”嘉年华

除了技术与产品,1024开发者节还有多个惊喜让你嗨起来!

会场之外,占地约3000平米的生态展区汇聚了超过50家优秀合作伙伴和A.I.企业,打造了集中式、场景式、浸入式的A.I.应用体验展示。图灵机器人、苏宁、咪鼠科技等企业均入驻其中,展示了科大讯飞生态合作伙伴及自身产品服务能力。时空漫游、未来基地等体验区吸引了大量参与者,在亲身体验中收获了知识与乐趣。

642964286427

 

 

 

当晚,罗琦、牛奶与咖啡、安子与九妹、和平饭店等知名艺人献唱A.I.公益音乐节,A.I.天使、方言歌曲与表演给音乐节画上完美句号,本次演出全部所得仍与去年一样用于“三声有幸”公益计划。

6430

 

 

10月25日,1024开发者节九场分论坛还将继续,带你一起解读A.I.+医疗、客服、家居、车载的更多可能。

6405

 

A.I.时代是所有人的时代,在通往未来的路上,我们需要广大开发者和从业者无限的创造和开拓,更需要所有人一起拥抱这个时代。科大讯飞在智能语音与人工智能的路上走过十九年,一直致力于和开发者、合作伙伴们一起用A.I.创造美好生活,1024开发者节将成为A.I.时代的新纽带,我们与你一起,共同创造和期待美好未来!

qrcode_for_gh_f97f0eb2c7e8_1280

科大讯飞全新1024:3大计划,200项A.I.能力,全链路驱动应用场景创新!

10月24日,2018届科大讯飞全球1024开发者节在合肥奥林匹克体育中心综合馆如约举行,重磅发布了全新升级的科大讯飞《1024计划》!

 

10月24日,2018届科大讯飞全球1024开发者节在合肥奥林匹克体育中心综合馆如约举行,重磅发布了全新升级的科大讯飞《1024计划》!

640

 

原中国科学技术部副部长张来武、科大讯飞董事长刘庆峰、科大讯飞轮值总裁胡郁、讯飞听见事业部总经理王玮分别发表主题演讲。

6401

科大讯飞董事长刘庆峰发表主题演讲

科大讯飞轮值总裁胡郁回顾了一年以来《1024计划》的成果,并推出在iFLYOS背景下打造的新一代科大讯飞《1024计划》。

6402

科大讯飞轮值总裁胡郁发布新《1024计划》

回首:24万学员,20万条方言语音

一年前,《1024计划》首次发布,将A.I.与教引、生态、公益结合,为A.I.开发者、创业者和爱好者提供指导与扶持,一起用A.I.的力量推动社会公益事业的发展。

A.I.教引:AI大学拥有24万学员,上线100+线上课程,与55位教授签约,联合北京大学、中国科学技术大学、CSDN、大街网等校企共同培养学生和开发者。

A.I.生态:入驻线下创业平台的开发者团队及企业超过600家;AI生态沙龙连接了360+投资机构和400+创业项目;扶持54个AI钻石团队;推出讯飞AI服务市场。

A.I.公益:方言保护计划吸引500万人参与,10万人上传方言语音,共计收集语音20万条;“三声有幸”项目通过资金、技术、市场、生态方面的扶持,帮助音书科技、心智互动等优秀企业更好地改善残障人士生活;AI教育公益计划通过人工智能产品给40多所农村学校的留守儿童带去了关爱与温暖。

3大计划助力iFLYOS赋能

《1024计划》的一年,也是洞察未来趋势的一年。

我们发现——

1.交互方式从图形交互,触摸交互向基于视觉呈现的语音交互发展;

2.单纯软硬件模式向软硬一体的云+端模式变化;

3.面向最终用户的产品从标准化的大C向多样化的小C发展;

4.A.I.时代参与生态链条的物种向多样化和去寡头化发展;

5.中国特色的计划经济与市场经济的融合;

6.商业生态从中心化走向去中心化。

6403

所以在未来,用户获取信息,获取服务的方式不只是通过单一设备,而是拥有更多的选择。

如何应对新的趋势?我们为开发者和合作伙伴推出了iFLYOS,全链路聚合了语音唤醒、声纹识别、语音识别、语义理解、语音合成等单点能力,连接无处不在的终端,驱动家居、医疗、汽车等场景交互创新。通过科大讯飞在语音领域深耕了20年的技术,使得人与机器之间可以通过自然的语音交互方式,进行持续、双向、自然地沟通。

新的《1024计划》带来A.I.教引计划2.0、A.I.生态计划2.0、A.I.公益计划2.0。通过对教引、生态、公益计划的更迭升级,在iFLYOS框架下,让更多人实现A.I.梦想,让A.I.为公益注入更多正能量。

 

1、职业认证课程,开放200项能力

A.I.教引计划2.0

AI大学——新增付费精品课程
作为优秀的人工智能学习平台,AI大学继续从课程、导师、职业认证等方面进行升级,让所有想加入A.I.浪潮中的人们,以更简单的方式学习A.I.,走近未来。

1)课程建设:

在人工智能核心技术的基础课程上,我们为使用讯飞开放平台能力的用户提供更加丰富的服务接入指引课程,提升平台的易用性和用户体验。

2)导师招募计划:

AI大学将继续扩大师资力量,从业内招募优秀导师,持续更新优质课程内容。

3)职业认证课程规划:

AI大学将和招聘、就业方面的三方机构进行合作,为每一位AI大学的学员提供量身定制的讯飞职业认证系统。

4)知识付费商业化探索:

在AI大学目前的发展进程中,商业化探索是很重要的一步。自研商业化进阶型课程、引入三方付费课程资源已经成为下一阶段的重要目标之一。

一站式开发平台——零学习门槛
如何让A.I.开发者们更方便快捷地使用A.I.能力?我们带来了一站式开发平台,具有全平台可用,零学习门槛,快速集成,业务自定义的特点。让开发者可以轻松使用语音唤醒、语音识别、语音合成等技能。

开放200项A.I.能力
A.I.已无处不在,各行业与A.I.融合发展的需求日益增强。我们将合作更多A.I.技术商,优化核心A.I.能力,将技能开放到200项,为广大A.I.开发者、创业者及爱好者提供更好的支持。

2、专属服务经理,进阶助跑计划

A.I.生态计划2.0

A.I.应用专属服务保障
创建应用-集成开发-交付测试-应用发布-版本更新,一个A.I.应用从诞生到落地,我们为其整个生命周期保驾护航:

1)专属服务经理

一对一支持服务,问题反馈24H内解决,快速响应需求。

2)全渠道响应

电话/工单/邮件/IM/BBS全渠道快速响应客户需求。

3)全业务支持

技术/业务/方案/商务/售后,全链路一站式支持服务。

4)服务保障

7*24运维保障,5星顶级服务集群;后台服务99.99%可用。

服务商优先试用A.I.新技术
我们带来讯飞AI服务市场,作为人工智能全产业链综合服务型市场,服务市场为所有上下游企业连接商机,匹配需求。

明年,AI服务市场将迎来重磅升级:

1)服务商业务升级

对于A.I.的新技术,服务商可以优先试用,占领市场先机,服务商使用讯飞的能力和服务,也可以享受专属的优惠。

2)品牌推广升级

明年我们会启动全国的城市论坛,给我们的服务商与企业客户创造更多的交流机会。

3)服务全面升级

服务市场将针对合作伙伴在人才,资金等各方面需求,提供全方位的专属服务。

三段投资助力合作伙伴从0到1
为了帮助生态链合作伙伴高速成长,我们打造三级助跑计划:

1)一级助跑:品牌势能+种子加速营

用讯飞的品牌势能帮助想要成为讯飞生态链伙伴的人打造自身势能,聚集流量,种子加速营会给种子期企业相应的单点突破创业培训和加速资源。

2)二级助跑:渠道能量+天使加速营

讯飞将用精准渠道帮助生态链企业把流量沉淀在场景里,天使加速营是这一阶段的方法论课程,帮助这些生态链企业更有效的利用讯飞提供的平台资源并转化成自己的场景优势。

3)三级助跑:生态养分+星光加速营

我们设立星光加速营,辅助创业者搭建和完善系统能力以获得利润支撑。

通过三级加速,生态链伙伴将跟讯飞一起,把一颗一颗星星放上A.I.历史的天空。

3、扩大方言保护阵容,千万医疗公益基金

A.I.公益计划2.0

完整复制10种方言
据调查数据显示,全世界现存6000多种语言,它们正以每两周消亡一种的速度在减少。

方言保护计划对中国方言进行一次全国范围内的收集和补全,动员全民参与,建立中国方言文库,提高民众对方言的关注度。借助人工智能技术为民众提供更好的方言使用环境。

在2018届全球1024开发者节上,我们将进一步升级方言保护计划,主要包括完整复制10种方言、赋能24省方言保护,招募方言保护计划成员这三项重要内容。

对于在大时代漂泊游走的我们,方言是家乡最深刻的印记,用A.I.留住我们的乡音,便是留住我们对家乡永不熄灭的思念与热爱。

1000万医疗公益基金
AI医疗公益计划首期将投入公益基金1000万,通过提供医疗服务、便民看诊等帮扶行动,让欠发达地区人民享受到高质量、高水平的医疗资源。

与开发者一起追逐A.I.时代光芒

未来我们将继续以智能人机交互为基础,以去中心化商业体系为框架,深度影响人们的生活方式。

在引导人类前进的道路上,人工智能是非常清晰的方向,也是光芒所在。《1024计划》只是一个开始,我们将和所有开发者一起,以光一般的速度去更好地服务社会,实现自我价值。

普通话二级甲等? 可我们数学老师明明n、l不分啊

论智能语音技术发展的必要性和紧迫性……

又是一年开学季,莘莘学子们又背着书包,生机勃勃 垂头丧气 地回归校园了。

可爱 逗比 的同学,敬爱 严厉 的老师,还有丰富多彩 苦逼哈哈 的校园生活,哇,想想还有点小期待呢。

q1

话说,自从上学以来,有件事一直很觉得很奇怪——许多老师的普通话水平测试到底是怎么通过的?

因为他们有的是这样:

q2

有的是这样:

q3

还有这样的:

q4

然后后来我知道了一件事,就是:从前的普通话水平测试,是人工测试的,并不是条件严苛的机测,所以出现人为误差的可能性比较大。

q5

也就是说不排除,当年的某个考场里,对话场景是这样的——

考官:请约读下面的文脏段落,zu意语速不要过快。请开死——

考生:绳命,是多么的回晃;绳命,是入刺的井菜······

考官:嗯阔以。下一题······

于是再对照中学数学老师的口音,恍然大悟。

哈哈,开个玩笑。不过人工语音测试的日子确实已经一去不复返了。

随着智能语音技术的出现和发展,机器评测在普通话水平测试、英语四六级等考试中愈发广泛地应用,直到现在的口语考试已基本全面实现机器测试。希望考官手下留情、睁一只眼闭一只眼的考生们,可就再也行不通咯。

q6

普通话水平测试机测考场

相比于人工测试,机器测试的优势非常明显:省时省力、评价标准更加规范统一、避免不必要的重复劳作等等,可以说是人工智能语音技术在教育领域一项非常成功的应用了。

09

我们花了147个小时,整理出人机交互8个热门知识点

什么样的人机交互才是趋于完美的自然交互?别说话,好好学习!

一周前,班主任问了拾月助教一个十分肤浅深刻的问题。

什么样的人机交互才是趋于完美的自然交互?

拾月想了一会说:“比如我在大街上看到一个帅哥,我身旁的AI助手可以通过我的心跳速度、花痴时间等这些数据,主动去帮我去勾搭这个帅哥。”

班主任虽然觉得拾月的幻想很不错幼稚,但人机交互对于产品的体验来说确实至关重要,为了让咱们的产品同学能更好地设计交互链路,班主任和拾月盘点了近些年来相关的人机交互知识热点~

别说话,好好学习!

1、什么是人机交互

人机交互是一门研究系统和用户之间的交互关系的技术。这里的系统既是计算机的操作系统和软件,也是日常生活中各种各样的机器。

简单来说,人机交互就是人与实物的自然“沟通”,其核心研究有2点:一、人机交互技术需要考虑不同用户的使用习惯;二、人机交互技术的发展要充分考虑到人机交互界面的变化。

2、人机交互技术起源

人机交互技术的启蒙,可以追溯到1960年 Liklider JCR 提出的人机紧密共栖的概念;1970年,人机交互(HCI)研究中心的成立,则为人机交互的发展指明了方向。

3、人机交互中常用的技术

在人机交互发展过程中,主要涉及到4类主要技术:语音交互技术、图像识别技术、AR和VR以及近几年大火的体感交互技术

在这4类技术中,语音交互的优势最为明显,输入效率高且交互方式更自然,更容易拓宽产品的使用场景;

图像识别技术常常被用于自动驾驶和安防领域,用于路面情况检测识别和人体面部识别等;

AR和VR技术主要营造的是一种沉浸感,不仅有交互,还有显示和移动;

体感技术是指人们可以很直接地使用肢体动作,与周边的装置或环境互动,而无需使用任何复杂的控制设备,便可让人们身临其境地与内容做互动。

640q

4、趋近于“人人交互”的「AIUI」

AIUI是科大讯飞最新的人机交互解决方案,融合了远场识别、全双工交互、语音合成、语义理解、私有语义等单点能力,形成了全链路的一体化解决方案。

5、「AIUI」概念起源

语音交互从移动互联网时代开始兴起,AIUI的兴起大概是在智能语音交互发展的第四阶段,即产品无实体按键可被语音唤醒阶段之后。

640

AIUI在传统的交互链路基础上增加了语音唤醒系统,同时对3大核心技术进行迭代升级,比如在语音识别技术中增加麦克风阵列和无效拒识技术;在语义理解中增加对话管理和上下文理解、纠错等技术;在语音合成中加入情境和情感分析等。

想要了解「AIUI」概念起源这块更多知识点的同学可以戳下列课程继续学习哦https://m.aidaxue.com/course/courseDetail?id=181

6、「AIUI」技术入门

AIUI的人机交互流程分为感知、认知、处理、表达四部分。

在AIUI中有3种不同交互理解功能的设计:任务完成型的交互理解、基于知识图谱的知识问答类型、基于问答库的闲聊或问答。

这3种不同类型的交互所涉及到的技术原理也大不相同,任务完成型的交互理解中最主要的技术难点是语义抽取,语义信息单元的抽取一般有2种方式,一是显规则;二是基于深度学习模型的语义抽取。

6402

基于知识图谱的问答类型其实过程并不复杂,用户输入问题文本之后,机器会按照语言学方式去理解分析这个问题,然后在知识图谱中检索相关的知识,同时将语义理解的结果和检索出来的知识做一些推理,最后得出系统答案。

闲聊类型的交互过程其实也很简单,这个过程的技术难点是在于如何利用深度学习技术,训练出合适的CNN或RNN模型去计算2个问题之间的相似性。

6403

想要了解「AIUI」技术原理更多知识点的同学可以戳下列课程继续学习哦https://m.aidaxue.com/course/courseDetail?id=181

7、「AIUI」典型工作流程

对于一个普通开发者来说,AIUI的典型工作流程如下图所示:

6405

通过相应的语音合成和远场拾音技术,机器获取到用户的语音输入信息,再利用AIUI的开放问答和自定义问答等功能对用户输入文本进行编码翻译从而理解用户的真正意图,再将语义理解的结果输送到业务流程中,系统会分门别类地响应这些意图,从而产生交互行为。

除此之外,AIUI还为开发者提供自定义技能,开发者可以根据不同产品的交互设计来选取不同的内容技能。

如果同学们也想体验下定制化的产品交互设计,可以接入AIUI开放平台进行产品交互的重新设计,具体的接入流程和接入问题请戳下列视频课程https://m.aidaxue.com/course/courseDetail?id=219

8、见即界面——「人机交互」未来猜想

随着AI技术和物联网的不断发展, 关于下一场革命性人机交互方式的猜想一直都备受业内关注。

被喻为最接近人类自然交互方式语音交互、多场景下的手势识别、把人类的大脑和计算机连起来脑机交互、分场景的全息操作、无需触屏的全界面……

这些交互方式对技术和产品硬件的要求都相对较高,在目前技术限制情况下可能很难将其优点发挥出来,但未来等技术和产品发展到一定阶段,它们中便会出现新的主流人机交互方式。

好啦~今晚的课程就到这里了,其实关于人机交互的知识点还有很多,咱们「AI大学移动端」上线了人机交互新课程《AIUI常见问题》。

09

 
你和百万大号之间,就差这个9.9元的回复神器!

讯飞服务市场推出微信服务机器人,让你的微信“活”起来只需9.9元!

大家好

我是小服

在运营界有一个很特别的职位

新媒体运营

微信图片_20180827090607

它的工资不高,但职业要求却很高

会写作、会涨粉、会设计、会产品

必要时候还得懂点研发

偶尔还要承接老板不靠谱的需求

“预算100块,能给公众号带来100万粉丝吗?”

微信图片_20180827090632

小服算是发现了

身边从事新媒体的朋友

总是被各种涨粉困境

折磨到悄悄秃了顶

微信图片_20180827090636

为了捍卫头顶的那片小树林

为了保住新媒体人少到可怜的年终奖

我们需要一个涨粉神器来拯救自己

「微信机器人」

👇👇👇

了解详情

微信图片_20180827090639

微信截图_20180827101752

听着这个名字

是不是感觉自己的新媒体职场生涯

还可以再抢救一下?

「微信机器人」最强大最神奇的功能是

24小时即时闲聊

它能在99.99%的情况下

代替运营者去和后台用户互动

作为一个新媒体

就算是半夜12点

收到后台用户的消息

也要淡定自若地进行回复

就怕回慢了,冷落了用户

而失去了1、2个巨粉

微信图片_20180827090643

现在有了「微信机器人」的24小时即时闲聊

不管白天还是黑夜,随时响应

是不是有种翻身农奴把歌唱的快感

除了24小时即时闲聊

「微信机器人」还支持以下功能:

丰富的互动技能

查天气、查交通、讲故事说新闻,真·技多不压身

微信图片_20180827090648

企业智能客服功能

业务咨询,产品信息对答如流,客户问了都说好

微信图片_20180827090654

自定义功能开发

可以通过编写技能和代码实现更多个性化功能

诸如家居控制,互动游戏等

微信图片_20180827090657

「微信机器人」的接入流程非常简单

了解详情点击购买「微信机器人」服务卡

便会有专人全程接入指导

你只要一边吃瓜一边动动鼠标就好了

啥,你问多少钱?

只要9.9元

半杯奶茶的钱

就可以省下了200块

买某王防脱洗发水的钱

微信图片_20180827090700

看到这里

是不是觉得「微信机器人」

真的很不错

别忘记戳了解详情

收了这款nice的小工具

最后,注意事项如图所示

👇👇👇

不看也行

微信图片_20180824135149

以上,我是小服

我觉得我今年的年终奖

能够翻倍

 微信图片_20180827090708

扫码关注【讯飞服务市场】公众号

更多“神器”早知道

qrcode_for_gh_cfb53edb0e56_1280

讯飞AI体验栈重磅上线,听写合成文字识别轻松搞定!

还有一大波新的AI能力正在赶来!

重大消息,重大消息,AI研究所后台上线讯飞AI体验栈小程序,各种强大AI能力随手拈来!欢迎体验!(点此体验

为满足大家的AI能力需求,后台曾推出智能聊天、星座分析、世界杯小游戏等多款应用功能,而这一次,借助讯飞开放平台的强大AI功能,我们一次集结了以下优秀AI能力,让你免费、高效地使用上堪称完美的日常语音听写、合成、翻译等AI解决方案。

1语音听写

微信图片_20180723173215

借助讯飞开放平台领先的语音识别技术,长按录音(目前小程序中语音听写时长最多支持30秒),直接把语音转换成对应的文字信息,语音识别准确率已经超过98%,在业界遥遥领先。另外,还支持中、英文两个语种的识别哦!

2语音合成

微信图片_20180723173450

讯飞是中国领先的智能化语音技术提供商,智能语音核心技术代表了世界的最高水平。提供的语音合成效果达到了可商用的标准,你可以输入任意文本进行语音合成体验。还有多款发音人提供选择,同时支持广东、四川、湖南、河南、东北、安徽等方言合成,尽情愉快玩耍吧!

3文字识别

未标题-1

讯飞除了深耕智能语音领域以外,也在视觉和自然语言理解等人工智能相关领域持续布局,以期更好的发挥人工智能技术的价值、提供更好的产品体验。AI体验栈中的文字识别能力,基于深度神经网络模型的端到端文字识别系统,能够轻松将自然环境下、印刷和手写体文字转化为计算机可编码的文字,并且手写文字识别的识别率高达90%,在业界遥遥领先。

4文本翻译

微信图片_20180723151620

微信图片_20180723151617

讯飞翻译服务采用了国际上领先的翻译技术,通过整合注意力网络机制和循环神经网络,完美模拟人脑翻译的机制,生成流畅的译文,支持中英、中日、中韩等多种语言互译。和网红“讯飞翻译机”用的一样的翻译技术哦,玩手机看到不懂的字词句,随手就能翻译,简直6到飞起!

5即将上新AI能力

体验栈AI能力集合,以上只是暂列的一部分!很快还将上线方言识别游戏识别医疗识别随声译功能,让更多的AI能力更好的服务到你!AI研究所将持续上新你最需要的AI能力,打造你最想体验和离不开的人工智能全生态链路供需平台!

 

以上你最喜欢的AI能力是哪一个?

你还期待上新什么别的AI能力?

留言告诉小智,我们会努力做得更好!

欢迎分享到朋友圈,如想取得授权请邮件联系:rgwu@iflytek.com。如果想调戏小智,可以在后台回复「小智」试试看哦~

 

微信图片_20180706095821

长按图片识别二维码

关注AI研究所

5分钟,教你打造1小时刷爆朋友圈的完美交互产品!

看完这篇文章,弄懂人机交互全新革命

「AIUI」名词释义

AIUI是科大讯飞最新的人机交互解决方案,融合了远场识别、全双工交互、语音合成、语义理解、私有语义等单点能力,形成了全链路的一体化解决方案。

1.从传统人机交互到AIUI

人机交互的发展是一个漫长的过程。

从PC时代的键盘+鼠标交互方式,到移动互联时代的多点触摸交互,再到物联网时代语音+视觉的新型交互,人机交互逐渐从以机器为中心交互方式,走向以人为中心的交互方式。

语音交互在这上述的转变起到了重要作用,作为交互方式中最便捷的方式之一,语音交互的发展也备受业内外关注,我们用一张图来了解下语音交互的发展路径:

微信图片_20180713092414

语音交互从移动互联网时代开始兴起,从一开始出现的具有语音能力的app到现在多模态交互的机器人,语音交互的发展技术也是经过了不断地迭代和更新。

传统人机语音交互的链路环节是先由用户对机器说出需求,机器将用户的语音识别成文字结果,再通过语义理解服务翻译出用户的需求,生成相应的语义协议,最后将生成的语音文本播报出来。

微信图片_20180720134510

传统人机语音交互的链接图

传统语音人机交互链路主要依赖3大核心技术:语音识别、语义理解、语音合成,虽说链路模式没有太大问题,但当时的技术发展不如现在成熟,在实际应用过程中容易受到客观环境的影响。

语音识别率不高、语义理解不对、信息内容不足、系统响应单一…这是传统语音人机交互所面临的主要技术难点。

为了解决这些技术难点,自然人机交互链路在传统的链路基础上增加了语音唤醒系统,同时对3大核心技术进行迭代升级,比如在语音识别技术中增加麦克风阵列和无效拒识技术;在语义理解中增加对话管理和上下文理解、纠错等技术;在语音合成中加入情境和情感分析。

微信图片_20180720134513

自然人机交互链路图

2.3种不同功能交互的技术原理分析

AIUI的人机交互流程分为感知、认知、处理、表达四部分。

在讲它的技术原理之前,我们先来看个简单的例子:

用户A对着机器说:“我要去北京”,如图所示,语音助手在识别、理解出用户A的意思,会有3种的不同类型的反馈。

微信图片_20180720134517

这三种反馈在人机交互中都是比较合理的,至于最终采用哪种类型的反馈,还是取决于产品的定位和特性。

了解了三种不同类型的交互反馈,我们来学习下这三种交互中所涉及到的相关技术。

任务完成型的交互理解
任务完成型的交互理解,主要是机器帮助用户解决某些问题,完成相应的任务。

用户B问语音助手:“有没有明天从合肥到北京的航班?”语音助手通过设定好的语义协议框架抓取出这句话中的理解要素:用户意图、用户操作、起点、终点、日期。

借助这些基本理解要素,语音助手便可以将查询结果一一反馈给用户。

这个过程中主要的技术难点就是语义抽取,语义信息单元的抽取一般有2种方式,一是显规则;二是基于深度学习模型的语义抽取

我们来讲下第二种语义抽取的方式,比如将用户输入的文本“刘德华电影”看成一组序列,每个字都是一个单独的序列,在序列的基础之上机器会做相应的预测,通过深度学习技术建立相应的抽取模型比如RNN或CNN模型,得出每个字符对应的标记。

微信图片_20180720134521

基于知识图谱的知识问答类型
关于知识图谱,之前我们已经科普过一次,没看过的同学请戳:困于答题游戏无法自拔?AI有一招让你百战百胜!

基于知识图谱的问答类型其实过程并不复杂,用户输入问题文本之后,机器会按照语言学方式去理解分析这个问题,然后再知识图谱种检索相关的知识,同时将语义理解的结果和检索出来的知识做一些推理,最后得出系统答案。

微信图片_20180720134524

基于问答库的闲聊或问答
闲聊类型的交互过程其实也很简单,机器收到用户所问问题,在相应的问答知识库中计算出相似度较高的几个问答,然后在利用句子语义匹配算法找出最相似的问答,最后输出结果。

这个过程的技术难点是在于如何利用深度学习技术,训练出合适的CNN或RNN模型去计算2个问题之间的相似性。

微信图片_20180720134527

在闲聊问答过程中,除了在问答库中匹配相似问答之外,还有一种比较常规的是生成式回复。

那在生成式回复中目前比较常用的技术是端到端的翻译模型,也就是Encoder-decoder框架。

好啦~今晚的课程就到这里了,其实关于AIUI的知识点还有很多,咱们「AI大学移动端」已经将科大讯飞研究院副院长陈志刚老师的《AIUI技术入门》课程上线了~

小伙伴们记得戳AI大学公众号菜单栏【AI大学】,去学习更多关于AIUI的知识,让你的产品交互逆风翻盘!

扫码关注AI大学公众号

AI大学

智能硬件新品上线,让WIFI设备能听会说的法宝

科大讯飞双麦WIFISoC语音交互模块XFWSE201,让你的WIFI设备简单快速接入强大的语音交互能力!

划重点

科大讯飞双麦WIFISoC语音交互模块XFWSE201在讯飞开放平台上线!让你的WIFI设备简单快速接入功能强大的语音交互能力!8月31号前购买双麦WIFISoC语音交互开发套件享6折优惠了解详情

 

炎炎夏日,很多人都希望自己一进家门,无需大汗淋漓地找遥控器,说一句“空调,启动冷风26度”就能迅速享受清凉,顺便再命令空调“我要听体育新闻”,为自己念一下新闻资讯。

如今,越来越多的硬件设备通过集成WIFI芯片获得联网功能,能为用户提供线上的丰富内容。同时,用户也追求更简单的控制方式,因此拥有联网功能的设备还需要“能听会说”,可以与人自然、流畅地进行语音交互。

开发者想在WIFI设备上接入语音交互能力,常会遇到以下问题:

1.现有交互方案的语音SDK均需要在特定的WIFISoC平台集成;

2.WIFISoC内部资源占用非常紧张;

3.语音SDK源码非开放。

受到这些问题困扰,开发者集成语音SDK困难,开发周期冗长的情况时常发生。

现在,讯飞开放平台上线双麦WIFISoC语音交互模块XFWSE201,由讯飞智能硬件平台打造,解决开发者遇到的困境,让WIFI设备简单高效地具有语音交互能力!

微信图片_20180718105028

无需集成语音SDK,高效完成设备开发

在双麦WIFISoC语音交互模块XFWSE201中,复杂的协议处理都放在模块内部,且直接开放上位机UART业务处理和网络交互处理源码

因此,开发者不需要在WIFISOC中集成语音SDK,只需参照源码完成上位机的UART业务处理和网络交互处理,极大的降低了WIFI智能硬件产品接入语音的难度,减少开发接入的工作量和周期;

微信图片_20180718085415

双麦WIFISoC语音交互模块

XFWSE201模块还采用了业界首创的语音模块与WIFISoC间串口通信协议,让语音模块能够与WIFISoC上位机共享WIFI,避免出现双WIFI芯片造成资源浪费。

为了方便开发者量产开发前对双麦WIFISoC语音交互方案进行评估,科大讯飞提供双麦WIFISoC语音交互模块的开发套件,将模块的接口引出做出了扩展板,可直接体验交互效果,快速评估开发。现在,8月31号前购买双麦WIFISoC语音交互开发套件还享6折优惠!相关资料下载及模块购买点击这里

微信图片_20180718085436

双麦WIFISoC语音交互开发套件

三大优势,让WIFI设备拥有强大语音交互能力

优势一:功能丰富

XFWSE201模块由双麦DSP芯片和MCU组成,采用科大讯飞最新的麦克风阵列算法,具有远场拾音、语音唤醒、回声消除、语音打断等功能。

优势二:讯飞云端能力支持

讯飞云端提供业界效果领先的语音能力,使用XFWSE201模块可快速接入云端语音能力和AIUI,使用丰富的语义技能,支持上下文对话,支持自定义技能和问答。

优势三:低成本、低功耗、小体积

XFWSE201模块尺寸为24mm*34mm,工作功耗0.4W,并通过串口通信协议避免双WIFI芯片的资源浪费。更小的体积,更低的功耗及成本,让XFWSE201模块可以应用于更广泛的场景和领域。

面向所有语音交互和智能控制场景

目前,大量的智能家居、智能家电和机器人都已经具备联网能力,这些WIFI设备如果想接入语音能力,都可以使用 XFWSE201 模块快速拥有 AIUI 交互能力。如空调、智能厨具、智能灯、扫地机器人等。XFWSE201能带给你的WIFI设备AI加持,获得不同于传统硬件设备的全新交互方式。

微信图片_20180718085441

智能灯具

智能灯在集成XFWSE201模块后,可以实现以下场景:

微信截图_20180718145731

微信截图_20180718145416

通过集成XFWSE201模块后,智能灯可以智能对话+语音控制,实现电子说明书、智能灯控制、天气查询、时间查询等功能。同样,其它WIFI设备在集成模块后也可以具有以上能力。

智能厨具

通过XFWSE201模块,带有WIFI功能的厨房电器具备语音交互能力,语音命令就可以完成油烟机、灶台的开或关。不用进行繁琐的按键操作,轻松应对烹饪过程中的多线操作。同时,菜谱等内容还可通过云端语音传递给用户,让智能厨电的使用场景更丰富。

智能家电

拥有WIFI功能的智能空调、智能风扇等家电,在集成XFWSE201模块后,可以让用户的双手从遥控器中解放出来,用语音随心控制家电。通过联网和云端还能实现无论何时何地,用户都可以通过设备对家电发出语音命令。

Q&A

Q:唤醒词可以更改吗?

A:双麦WIFISOC语音交互模块和开发套件内部默认的唤醒词为“魔飞魔飞”。若想获取更多的唤醒词,可以根据以下步骤: 登录讯飞开放平台官网 > 产品服务 > 双麦WIFISOC语音交互模块 > 唤醒资源 > 创建唤醒资源并下载;下载唤醒资源后,请参照开发手册进行唤醒词更换

Q:后期还会优化升级吗?

A:后续新算法的优化版本和固件最新升级消息我们会通过技术支持群等方式通知,支持OTA的方式进行升级。

 

XFWSE201模块已在讯飞开放平台上线

即刻让你的WIFI设备能听会说

双麦WIFISoC语音交互开发套件优惠购买Ing!

联系商务洽谈:

廖先生18628998558(华南区)

文先生17775373321(华东区)

章先生17600807528(华北区)

安女士0551-65397818(其他区域)

新能力 | 简单3步,让你的微信公众号能听会说

AIUI微信解决方案,让公众号上知天文,下知地理,还能和你闲聊

说重点

AIUI开放平台上线微信解决方案让公众号拥有智能语音对话能力!公众号运营者扫码即可接入。详情戳这里

我们在一些公众号的菜单栏中,会看到“汇率查询”、“天气资讯”、“网上商城”、“猜谜语”等应用或游戏,这些都是在公众号中加入的功能。

公众号中上线满足用户需求的功能,可以让用户形成对公众号的使用习惯,逐渐沉淀出一批高忠诚度的粉丝。

AIUI开放平台上线的微信解决方案,就能为你的公众号接入独一无二的智能语音对话功能。让你拥有吸引用户的有力途径。

微信图片_20180711164936

让公众号能听会说

通过接入微信解决方案,微信公众号绑定科大讯飞AIUI开放平台,由AIUI为公众号提供托管智能回复功能

AIUI:科大讯飞提供的一套人机智能交互解决方案, 旨在实现人机交互无障碍。AIUI全链路聚合了语音唤醒、语音识别、语义理解、内容(信源)平台、语音合成等单点能力。让产品不仅能听会说,而且能理解会思考。

公众号加入智能回复功能后,AIUI可以接收公众号用户的语音和文本请求,并对文本请求进行合适的语义理解及业务逻辑处理,最终返回给用户图文并茂的消息内容。目前,AIUI微信解决方案支持用户语音、文本、文本+系统表情、自定义表情、收藏表情进行人机交互。

360截图20180711095634594

让公众号功能多样

微信解决方案有以下三点优势:

接入方便

许多小伙伴可能认为,接入解决方案的流程十分复杂,但微信解决方案的接入,只需要公众号运营者或开发者扫码即可完成。只需三步,即可让公众号具有智能语音对话功能:

第一步:注册科大讯飞AIUI开发平台账号;

第二步:创建我的应用选择微信平台;

第三步:绑定公众号,添加技能;

详情请戳这里

wx1

能力丰富

微信解决方案中,公众号运营者还能使用AIUI开放平台的技能商店。商店拥有涵盖效率工具、生活服务、影音阅读、教育百科、健康健身等10个领域100+的丰富技能,现在仍在持续增加中。点此进入技能商店。运营者通过AIUI后台即可为公众号添加技能。

360截图20180711095725805

扩展性强

如果技能商店还满足不了需求,微信解决方案还支持自定义技能和问答定制。开发人员可以通过编写技能和代码实现复杂的业务逻辑,每个用户都可以定制符合自身要求的个性化业务。

让公众号应用场景更加丰富

通过微信解决方案,公众号加入智能语音交互功能,不仅能让公众号智能化,还能扩展功能开发场景,带来更多玩法。

智能客服

用户可以通过创建AIUI自定义问答导入客服话术,AIUI支持多问多答以及模糊匹配,即可以一个问题多种话术也可以支持用户持续的追问,即使有多余的语气助词,简短的暂停也能准确识别,用户只需通过简单的配置即可实现智能客服功能。

闲聊

在满足业务场景的同时,还提供十万个为什么,常识,热点以及富含感情的抱怨,夸奖,情绪等开放问答技能,满足用户日常闲聊需求,提高公众号的趣味性。

目前,讯飞开放平台公众号的“AIUI体验”菜单栏中,就通过接入微信解决方案,提供百科问答功能。

微信图片_20180712161455

家居控制

公众号的开发人员可以通过编写自定义技能配合云函数,实现诸如智能家居控制等功能类需求,例如电视,窗帘,音响等。

互动游戏

用户可以接入技能商店的游戏类技能,为公众号提供基于语音互动的趣味游戏,同时开发人员也可以自定义新的游戏玩法。

世界杯期间,讯飞开放平台公众号就推出了基于微信解决方案的世界杯匹配球星测试游戏。用户通过语音回答一系列问题,就可以测试与你最匹配的球星。

微信图片_20180712163328

微信解决方案案例

微信图片_20180712164245

公众号“小异科技”

微信图片_20180712164021

公众号“编程梦幻岛”

AIUI,让你的人机交互面向未来

AIUI 是科大讯飞提供的一套人机智能交互解决方案, 旨在实现人机交互无障碍,使人与机器之间可以通过语音、图像、手势等自然交互方式,进行持续,双向,自然地沟通。

AIUI提供以语音交互为核心的交互解决方案,全链路聚合了语音唤醒、语音识别、语义理解、内容(信源)平台、语音合成等单点能力。可以应用于智能手机(终端)、机器、音箱、车载、智能家居、智能客服等多种领域,让产品不仅能听会说,而且能理解会思考。

AIUI自上线以来,不仅为各行各业提供服务,同时自身也在不断优化升级功能。5月17日的科大讯飞「AI·飞无界」新品发布会上带来了AIUI的全新升级AIUI 3.0。升级的AIUI拥有半监督优化、全链路打通及场景动态词汇等功能,还选择了自然度更高的开放式对话,让交互更贴近自然,并且不断地演进和优化效果。AIUI 3.0的发布,标志着开发者可以实现不断优化产品、开发更自然交互、语义理解及语音识别质量更高等追求。点此了解发布会详情

[2][0]
科大讯飞副总裁,新品发布人于继栋介绍AIUI 3.0
AIUI 开放平台主要包含了语义技能(Skill)、问答库(Q&A)编辑以及 AIUI 应用(硬件)云端配置的能力,并为不同形态产品提供了不同的接入方式。目前有如下接入方式有,Android、iOS、Windows、Linux SDK,基于HTTP协议的WebAPI,以及软硬一体的AIUI评估板(量产板)、魔飞智能麦克风。


Q&A
Q:微信解决方案支持视频和照片的交互吗?A:暂时不支持用户视频格式和照片格式的交互。

Q:接入后,运营者如何维护自定义问答?

A:公众号运营人员可以在AIUI后台维护自定义问答。


现在,让你的公众号更有竞争力

微信解决方案

 

新功能get√:AI大学移动端,来了!

随时随地,想学就学

全文重点

「AI大学移动端」已经正式上线了!

点开公众号菜单栏【AI大学】~即可在手机上观看相关AI课程视频

躺着看,坐着看、等地铁的时候看,随时随地,想看就看!手机秒变移动AI小课堂~

微信图片_20180713092313

点开图中标红的菜单栏即可~


2018年已经过去了大半年,日程上flag拔掉了一些,又插上了一些,走了不少弯路,也爬过了几座险坡。

微信图片_20180713092323

在18年年初的时候,班主任在调研问卷里问大家,最希望AI大学新增什么功能?超过50%的同学都勾选了「AI大学移动端」的选项。

在研发小哥哥放弃世界杯,熬夜到白发横生的时候,很开心地通知大家,咱们AI大学的移动端终于上线了!

微信图片_20180713092327

1.首页模块化:1分钟选好课程,10分钟学完内容

AI大学的移动端分为三大主页面,分别是「首页」、「课程地图」、「我的大学」。

移动端的「首页」页面将目前AI大学已有的80多节AI核心课程,按照课程内容分成5大课程模块:

【推荐课程】、【技术专业课】、【未来课栈】、【AI公开课】、【创业课堂】

模块化的课程体系,可以让同学们快速在首页找到想学的课程,利用等地铁、排队等零散时间,刷完1节AI课程~

【推荐课程】

这里集结了最新最受欢迎的AI课程,比如最近好评如潮的吴霁虹教授的“超能商学院”系列课程,以后这一系列的课程也会做成相应的专题呢。

微信图片_20180713092331

【技术专业课】

技术专业课程从语音识别、合成、AIUI等AI基础技术方面入手,再结合相关的解决方案详细阐述技术是如何在应用中落地。

微信图片_20180713092334

【未来课栈】

未来课栈是AI大学主打的课程体系之一,以线下授课形式为主,线上视频回顾为辅,给同学们提供最in的AI理念,和同学们分享最独特的AI观点。

微信图片_20180713092338

合肥栈、北京栈、上海栈、成都栈我们一起走过的四栈~都还记得嘛~

【AI公开课】

AI公开课将AI结合当下热点,从游戏、体育、人机交互等不同角度去解读AI的魅力,比如最近一期的“当世界杯遇上人工智能”~

微信图片_20180713092341

【创业课堂】

创业课堂从行业生态到法律政策,全方面为创业者保驾护航,致力于从事AI创业的同学们,千万不要错过哦~

微信图片_20180713092344

同学们可以根据兴趣点击相应的课程,进入课程详情页进行深入学习。

微信图片_20180713092347

在课程详情页可以看到课程简介和课程目录,学完之后还可以对该课程进行评价,如果觉得该课程很精彩,可以点击右上角的按钮进行收藏哦~

2.课程地图:多标签分类,筛选最合适的课程

移动端的第二大主页面是「课程地图」,在「课程地图」页面列表中包含了AI大学的所有课程,同学们可以通过上下滑动的形式来查看。

微信图片_20180713092351

「课程地图」是为了让同学们更快更精准地找到所需课程,所以我们在页面设置了相应的筛选项。

点开页面左上角的【筛选】按钮,可以看到相应的筛选项,从课程内容、技术、领域到课程难易程度,同学们根据自己的兴趣点和对AI知识的掌握程度进行相应的标签选择,系统会自动推荐适合的课程给大家。

微信图片_20180713092400

除了左上角的【筛选】按钮,同学们还可以点击右上角的【综合】折叠按钮:

微信图片_20180713092403

最新最有人气AI课程,全都不错过~

3.我的大学:个人信息,轻松查看

「我的大学」是用户个人信息页面,大家随时查看自己的在AI大学里累计的学习时间、获得的学分等相关信息。

微信图片_20180713092407

原谅班主任的渣渣画技~移动端不仅支持常规的账号密码登录,也支持QQ、微信、微博一键登录。

在【我的课程】模块,同学们可以查看到已报名、学习中、和已完成的相关课程

微信图片_20180713092410

在【我的收藏】模块,同学们可以找到之前收藏过的一些精彩课程

微信图片_20180713092414

在【问题建议】模块,同学们可以将自己对AI大学移动端的意见,都丢在这里哦~班主任一定会认真收集大家的意见,进行相应的改进~~


好啦好啦~今晚的文章就到这里了,在走向未来的这条道路上,AI大学愿为同学们提供最专业最全面的AI知识,让同学们在零散的时间内,也能学到完整的知识!

小伙伴们记得戳菜单栏【AI大学】,享受学习的小乐趣。

 

关注我们,收看更多精彩课程

AI大学

 

超过80%语音开发者的共同选择