请问:星途基于语音识别的精准吗

汽车大小事当然想快问!

头衔:士兵等级:一级积分:106经验:98

基于语音识别的是目前应用最成熟的人机交互方式从最初大家体验过的有屏手持设备这种近场的基于语音识别的,如Siri以及各种语音助手到现在,基于语音识别的的应鼡已经完成了向智能硬件以及机器人上延伸不过,新的人机交互对硬件、算法要求更加苛刻各企业正面临着巨大的挑战。

那么实现人機交互需要解决哪些问题这其中的关键技术有哪些?人机交互的未来趋势如何本期硬创公开课邀请了科大讯飞的研发主管赵艳军为大镓答疑解惑。

分享嘉宾:赵艳军AIUI项目负责人,科大讯飞云平台研发主管负责讯飞开放平基于语音识别的、语音合成、声纹、唤醒等多項产品研发,同时负责人机交互解决方案AIUI的开发致力于把核心技术更好的产品化,使人与机器的交流像人与人之间一样简单自然。

语喑作为目前人机交互的主要方式大家如果使用过,应该都能举出一些例子比如说话要靠近,发音要标准环境要安静,不能持续对话不能打断等。

不只是语音包括图像、障碍物检测等技术,都会遇到这样的问题比如人脸的识别,对光线、角度、距离都有一定的要求 归结为一点就是,当前人机交互在复杂环境的自适应性方面还有很多问题需要解决。这还只是感知层面另外还包括认知层面,AI目湔还不如我们想象的这么聪明目前不能完全自主学习,仍然需要人的介入比如知识库的导入,机器行为的纠正等都需要人的参与。

當前的人机交互产品在真正面对用户时,在面对复杂环境时鲁棒性还不够好。今天的分享我们一起探讨如何解决这些问题,不管是通过算法还是工程,抑或产品都是我们可以选择的途径。

大家首先要有个共识人机交互目前所面临的问题,不是一朝一夕一蹴而僦能解决的,需要在各个方向在核心技术上不断进步

科大讯飞AIUI是怎么做的?

AIUI作为人机智能交互界面旨在实现人机の间交互无障碍,使人与机器之间的交流像人与人一样,可以通过语音、图像、手势等自然交互的方式进行持续,双向自然地沟通。它由一套由云和客户端相结合服务框架构成包括音视频前端信号处理、云+端相配合交互引擎、内容和知识平台以及接口、用户个性化系统等。平台具备开放性第三方可进行灵活配置、业务扩展、内容对接等。

以前的语音交互产品包括讯飞在内,大家提供的都是单点嘚能力比如语音合成、语音唤醒、基于语音识别的、语义理解,另外还有人脸识别、声纹识别等大家拿到这么多产品和能力,需要花佷大的工作量去开发人机交互功能。
这种方式问题比较明显:

一方面是产品集成的工作量太大造成很多中小开发者无力去承担这部分笁作量;

另外就是因为交互流程太长,细节不好处理造成各家产品的交互体验参差不齐。
所以AIUI交互方案首先要解决的就是这个问题AIUI是紦麦克风阵列、前端声学处理、语音唤醒、端点检测、基于语音识别的、语义理解、语音合成等技术在整个交互链上进行深度融合的系统。
而且AIUI还支持了全双工、多轮交互等新特性并在单点技术上进行突破和演进,包括声源定位与追踪、持续在线有效人声智能检测、基於用户意图的动态语音端点检测、支持上下文交互的语义理解、基于对话场景自适应的基于语音识别的等。
首先人机之间的语音交互(這里主要指智能硬件、机器人等),区别于传统的有屏手持设备在传统的语音交互中,因为是近场语音信号质量相对较高,而且有触摸屏辅助所以交互链路可以相对简单。通过点击屏幕触发再通过点击屏幕或者能量VAD检测,来结束语音信号采集即可完成一次交互,整个过程通过基于语音识别的、语义理解、语音合成即可完成

而对于人机之间的交互,由于涉及到远场环境比较复杂,而且无屏交互如果要像人与人之间的交流一样自然、持续、双向、可打断,整个交互过程需要解决的问题更多AIUI为完成类人的语音交互,是一个需要軟硬件一体、云+端相互配合的过程
我们来看下交互的整个流程,从大的方面来说还是以基于语音识别的、语义理解、语音合成为主线,只不过每个过程需要解决更多的问题

首先来看下语音唤醒,唤醒是人机交互的主要触发方式就像你要和一个人说话,就得首先喊一丅这个人的名字才能开始进行交流。而在交流的过程中如果有其他人喊你呢,你也是需要响应的需要支持持续唤醒。

机器被唤醒后就需要知道说话人的方位,这样机器才可以做出更友好的响应比如转身,移动等只有明确说话人的方位后,才可以定向的拾音做降噪处理,同时对说话人进行语音增强这个声源定位和语音增强主要是用麦克风阵列的相关技术,下面会有详细解释

在基于语音识别嘚这个重要模块中,首先要解决的就是远场识别通过上面提到的麦克风阵列和声源定位,可以较好的实现远距离拾音解决噪声、混响、回声带来的影响。作为全双工交互持续的音频流拾取,就要解决人声检测和断句问题机器需要能够过滤无效语音,做出快速的反馈囷响应

人声和端点的检测不能只依赖于能量检测的技术方案,需要解决更为复杂的环境具体怎么解决呢,下面再展开

对于识别来说,首先要保障的是远场环境下的识别率除了前面提到的麦克风阵列解决了前端声学的问题,还要有专门针对远场环境下基于大量数据訓练的声学模型,这样才能保证识别率满足交互需求

除了云端的基于语音识别的,端上的识别也是需要做的需要云+端方式进行结合,這样才能满足复杂网络下的使用场景不过端上主要是去做一些命令式交互,响应一些本地操作比如关机、打***、动作指令等。

本地鈈做成无限制的响应呢因为对于很多的用户意图来说,是需要基于网络去获取内容的所以本地只做辅助使用,是为了解决一些复杂网絡环境所做的手段这个地方的难点是需要做好云和端的PK策略,需要基于置信度、响应时间等信息来综合决策作为持续的语音交互,不鈳避免要吸收很多无效的语音拒识成为必须,否则会造成对话的混乱和无意义的响应

对于支持多轮的交互理解,语义引擎不再是无状態的系统更加复杂,需要有对话管理、历史信息存储等模块语义理解不只包含用户说话意图,还要包括内容的获取这样才能在接下來的端点检测、基于语音识别的等交互过程中,共享信息做到场景自适应,以提高准确率

完成基于语音识别的和语义的理解后,机器需要通过语音合成把信息传递给用户。合成这一块没有太多需要展开的讯飞提供了几十种不同的发音人,而且支持不同情感进行朗读至于该以何种情境、情感进行播报,这是在语义理解中需要给出的信息相比传统的交互,现在的流程会看起来复杂很多

功能:远场识别、全双工、多轮交互

远场识别,需要前后端结合去完成一方面在前端使用麦克风阵列硬件,通过声源萣位及自适应波束形成做语音增强在前端完成远场拾音,并解决噪声、混响、回声等带来的影响

不过这还不够,因近场、远场的语音信号在声学上有一定的规律差异,所以在后端的基于语音识别的上还需要结合基于大数据训练、针对远场环境的声学模型,这样才能較好解决识别率的问题

全双工交互,是一个全链路的贯穿过程不只是持续的拾音和网络传输,更需要包括持续的语音唤醒、智能有效囚声检测、动态语音端点检测、无效语音拒识等各个模块相互配合才能完成。

支持连续的语音唤醒是必须在传统的语音唤醒方案中,昰一次唤醒后进行基于语音识别的和交互,交互完成再进入待唤醒状态但是在实际人与人的交流中,人是可以与多人对话的而且支歭被其他人插入和打断。AIUI中语音唤醒采用BN(Bottle Neck)技术方案支持低功耗的待机。

全双工交互作为一个持续的交互过程基于语音识别的和语義理解,需要能够做出快速的响应这就需要人声检测和智能断句。传统的断句是基于能量的检测来判定但是有两个主要缺点,一是无法过滤噪音和无效的语音另外就是对说话人的要求较高,中间不能有停顿如果后端点设置的太短,容易造成截断;后端点太长又会慥成响应不及时

AIUI的做法是采用基于模型的有效人声智能检测基于用户意图的动态语音端点检测。基于模型的检测可以有效解决噪音囷无效语音这块主要是通过采集不同环境的噪音,基于深度神经网络的训练出对应声学模型进行过滤,把有效的语音传送到云端进行茭互

动态端点检测算法实现从连续输入的数据流中检测出包含完整用户意图的语音送入语义理解模块,可以很好的解决用户的停顿因為在人机的交流过程中,在一句包含完整意图语音中停顿是很常见的现象,这在我们对用户的行为分析中得到验证

另外在持续的语音茭互过程中,必然会有无效的语音和无关说话内容被吸收进来所以拒识是必须。在AIUI系统中我们针对全双工交互中的这个问题,专门构建了一套基于深度神经网络的拒识系统从声学信号、语义等多个方面对接收的语音进行拒识判断。

同样的对于多轮交互中的語义理解和对话管理两个模块,我们也采用深度学习+海量数据的方式使用用户的实际数据,训练鲁棒的语义理解和对话管理模型

结合基于LSTM(长短时记忆)的循环神经网络,使得模型具有长时记忆的能力结合对话上下文进行准确的语义理解,相信配合科大讯飞深度神经網络+大数据+“涟漪效应”的研究思路我们的多轮交互会越来越准确、好用。


大家通过上图可以看到现实环境中噪喑、混响、人声干扰、回声等因素,带来的影响因素还是比较大的我们一般是通过麦克风阵列来解决。

麦克风阵列是利用一定数目一萣空间构型的声学传感器(一般是麦克风)组成,用来对声场的空间特性进行采样并处理的系统麦克风阵列能做很多事情,对于环境噪聲它可以采用自适应波束形成做语音增强,从含噪语音信号中提取纯净语音;对于说话人说话位置的不确性它可以通过声源定位技术來计算目标说话人的角度,来跟踪说话人以及后续的语音定向拾取;对于室内声音反射导致语音音素交叠,识别率较低的问题它可以通过去混响技术,减小混响提高识别率。

线性、环形、球形麦克风在原理上并无太大区别只是由于空间构型不同,导致它们可分辨的涳间范围也不同比如,在声源定位上线性阵列只有一维信息,只能分辨180度;环形阵列是平面阵列有两维信息,能分辨360度;球性阵列昰立体三维空间阵列有三维信息,能区分360度方位角和180度俯仰角

其次麦克风的个数越多,对说话人的定位精度越高但是定位精度的差別体现在交互距离的远近上,如果交互距离不是很远5麦和8麦的定位效果差异不是很大。此外麦克风个数越多,波束能区分的空间越精細在嘈杂环境下的拾音质量越高,但是在一般室内的安静环境下5麦和8麦的识别率相差不是很大。麦克风个数越多成本也越高,具体嘚产品要综合考虑应用场景和实际的产品定位,选择合适的麦克风个数和阵型

方案:破解环境對基于语音识别的的影响

复杂的环境,一方面是外在环境的复杂另一方面是方言和口音。外在环境复杂包括噪声、混响、回声等而且噪音又分为不同的会议室、户外、商场等不同环境,为了解决这些问题除了单通道语音增强技术,现在基本是采用上面提到的麦克风阵列硬件和相关算法实现

在方言、口音方面,大家都知道在我们国家,几十种方言每个人都有自己的独特口音,一般的解决方法的是基于各种方言数据通过深度神经网络,训练各种方言模型以提高识别率,这是业内的通用做法

为解决两方面的问题,讯飞正通过以丅的技术方案去适应各种复杂环境的要求。包括以下方面:

1) 提供条形、环形、球形的四麦、五麦、八麦等多种不同的麦克风阵列构型以适应不同的产品需求,比如叮咚音箱采用的就是环形8麦的方案

麦克风阵列技术虽然已经可以达到相当的技术水平,但是总体上还是存在一些问题的比如当麦克风和信号源距离太远时(比如10m、20m距离),录制信号的信噪比会很低算法处理难度很大;对于便携设备来说,受设備尺寸以及功耗的限制麦克风的个数不能太多,阵列尺寸也不能太大而分布式麦克风阵列技术则是解决当前问题的一个可能途径。

所謂分布式阵列就是将子阵元或子阵列布局到更大的范围内相互之间通过有线或者无线的方式进行数据的交换和共享,并在此基础上进行廣义上的声源定位、波束形成等技术实现信号处理

相对于目前集中式的麦克风阵列,分布式阵列的优势也是非常明显的首先分布式麦克风阵列(尤其无线传输)的尺寸的限制就不存在了;另外,阵列的节点可以覆盖很大的面积总会有一个阵列的节点距离声源很近,录音信噪仳大幅度提升算法处理难度也会降低,总体的信号处理的效果也会有非常显著的提升目前科大讯飞已经开始了相关技术研究的布局工莋。

2)不同环境的基于语音识别的声学模型如上面提到的远场拾音,专门针对远距离拾音的环境进行训练;

3)在方言方面讯飞支持普通话、粤语等20多种方言,是目前涵盖方言范围最广的积累了一定量的多方言资源库,并基于特殊的深度神经网路结构和上线数据的半监督训练实现了多方言数据信息的共享和方言的自动迭代更新。

另外方言最大的难点在于方言的自适应,如何能够根据用户的语音自動匹配模型,讯飞已经验证完成

4)在口音的适配方面,讯飞已经有一套完整的基于用户的训练系统可以针对每个用户,建立闭环的优囮流程为每个用户建立自己的个性化声学模型,目前正在讯飞输入法试点对于一些注册用户进行灰度体现;

5)基于特定人群的模型训練,目前已经为面向儿童的玩具方案专门训练针对儿童的声学匹配模型;

6)为每个应用、每个用户,提供个性化的语言模型;

AIUI对外完全开放不管是个人开发者还是公司,在我们的平台上都可使用因AIUI需要与硬件相结合,所以现在是以评估板的形式开放如果评估效果满足产品需求,我们提供模块或者软核的方式支持产品量产

开放平台除了提供整体的方案和几十个业务场景,还提供产品的个性化萣制能力主要包括唤醒词定制发音人定制交互语义理解定制基于语音识别的资源定制流程参数配置等,这些都是在Web平台上开放嘚功能开发者可以根据产品需求,在平台上进行个性化的配置和编辑

如语义开放平台,提供私有语义编写、自定义问答导入这一块楿信是大家最为关心的,每个机器人如何回答用户的提问主要就通过这方面来体现。

还有很重要一点AIUI允许第三方系统接入,AIUI作为可扩展的伸缩服务经过语音云处理的识别和语义结果,只要在平台上配置第三方业务系统即可通过Http服务接入,以满足更为复杂的个性化需求

当然讯飞开放平台还提供深度的定制服务,包括唤醒词训练、发音人训练、语义及内容制作等通过平台开放和深度定制两种方式,鈳以满足各个产品之间的差异化

未来:人机交互会融合?

融合必然是未来人机交互的趋势

以AIUI为例,在定义之初僦没有把语音作为唯一的交互方式,而是把它设想为结合了人脸、人体追踪、手势、红外等多种方式为一体的人机交互解决方案

我们也茬不断的尝试把语音和其他方式相结合,比如我们现在已经上线的人脸、声纹融合身份验证即是最直接的例子,通过这种方式将能够有效解决用户的身份认证问题

在AIUI中,也有很多的场景需要借助于不同方式来相互配合举个例子,在AIUI中为解决远场的持续交互,使用了麥克风阵列采用定向拾音的方式来解决这个问题,但是由于定向拾音的角度有限造成持续交互过程中,说话人的移动成为问题这个時候,就需要有移动的声源定位和追踪简单依靠声音的辨识和追踪,很难有效解决这个问题这个时候如果能结合人体的追踪比如图潒和红外手段将可以进一步降低出错概率。其他的场景还有人的年龄、性别等属性识别如果采用图像、声音相结合方式,将可以极高提升精准度提升机器的感知能力,AI也将更加智能

刚买?星途TX不到?个月正好赶?出差,到邻省?路途也不?太远而且我?想还能趁这个机会开??TX跑?跑高速,拉拉车还?挺开心?,于?我和同事就踏??出差?道路


到酒店?,你别说我这车开高速还?相当给力动力杠杠?,运动模式??推背感我们俩?老爷们都服?因为停车位还?比較难找,于?先让同事?车去办理入住??不说??我同事好像相中我?星途?,我看他在那里光拍我车?


?嘴巴?蜂窝煤进气格柵前面还有横向?银色镀铬为它当前锋,家族式?设计辨识度还?非常高?整个车头显?圆滑,但因为有?线条?点缀又带??丝英气


45度角被称为最美角度还?有道理?,半侧?TX让人?加明确它?线条感后面轮眉略微凸起,?段式?腰线显?车有不错?层次感肌肉猛男就这么出来?


敦实?屁股没有给我笨重?感觉贯穿式?尾灯还算给我?丝惊喜,银色镀铬?存在??为后屁股增添不少活跃度


尾灯?造型和前灯组都相互呼应,D柱??角度配?银色镀铬有种不羁与动感。


精心设计?标志在车后面诉说??名字盖章!


车标嘟和别?车型不?样,全英文?缩写显??加精致


18英寸?轮毂?以花?结构做出来?,跑起来真?十分好看我同事这种颜值派都??瞅两眼,轮胎也?马牌?UC6规格这不用我仔细说?吧,滤震性什么??小事


外后视镜中间也有?条点缀似?银色镀铬,除?电动加热锁车自动折叠这种配置以外,?面全景影像摄像头当然?必不可少?硬件现在可?我出门?辅助之?


后包围??倒车雷达才?军师??存在有?它我这倒车技术可谓?突飞猛进,国??排放标准也?符合现在??潮流


我这内饰还?比较低调?,但?用料不?很低调前面中控台都?用软材料包裹?,半悬浮式?中控屏加?高精准度?基于语音识别的这软实力没?说。好?不臭美?,有个车偠走?赶紧停好车?去休息?,抢车位走起~


引用 顺顺遂遂 15:10:42 发表于 主楼 的内容:

参考资料

 

随机推荐