在人际交往中,言语是最自然并且最直接的方式之一。随着技术的进步,越来越多的人们也期望计算机能够具备与人进行言语沟通的能力,因此,语音识别这一技术也越来越受到关注。尤其,随着深度学习技术应用在语音识别技术中,使得语音识别的性能得到了显著提升,也使得语音识别技术的普及成为了现实。
语音识别技术
自动语音识别技术,简单来说其实就是利用计算机将语音信号自动转换为文本的一项技术。这项技术同时也是机器理解人类言语的第一个也是很重要的一个过程。
语音识别是一门交叉学科,所涉及的领域有信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等,甚至还涉及到人的体态语言(如人民在说话时的表情手势等行为动作可帮助对方理解)。其应用领域也非常广,例如相对于键盘输入方法的语音输入系统、可用于工业控制的语音控制系统及服务领域的智能对话查询系统,在信息高度化的今天,语音识别技术及其应用已成为信息社会不可或缺的重要组成部分。
语音识别技术的发展历史
语音识别技术的研究开始二十世纪50年代。1952年,AT&Tbell实验室的Davis等人成功研制出了世界上第一个能识别十个英文数字发音的实验系统:Audry系统。
60年代计算机的应用推动了语音识别技术的发展,提出两大重要研究成果:动态规划(Dynamic Planning, DP)和线性预测分析(Linear Predict, LP),其中后者较好的解决了语音信号产生模型的问题,对语音识别技术的发展产生了深远影响。
70年代,语音识别领域取得突破性进展。线性预测编码技术(Linear Predict Coding, LPC)被Itakura成功应用于语音识别;Sakoe和Chiba将动态规划的思想应用到语音识别并提出动态时间规整算法,有效的解决了语音信号的特征提取和不等长语音匹配问题;同时提出了矢量量化(VQ)和隐马尔可夫模型(HMM)理论。在同一时期,统计方法开始被用来解决语音识别的关键问题,这为接下来的非特定人大词汇量连续语音识别技术走向成熟奠定了重要的基础。
80年代,连续语音识别成为语音识别的研究重点之一。Meyers和Rabiner研究出多级动态规划语音识别算法(Level Building,LB)这一连续语音识别算法。80年代另一个重要的发展是概率统计方法成为语音识别研究方法的主流,其显著特征是HMM模型在语音识别中的成功应用。1988年,美国卡内基-梅隆大学(CMU)用VQ/HMM方法实现了997词的非特定人连续语音识别系统SPHINX。在这一时期,人工神经网络在语音识别中也得到成功应用。
进入90年代后,随着多媒体时代的来临,迫切要求语音识别系统从实验走向实用,许多发达国家如美国、日本、韩国以及IBM、Apple、AT&T、NTT等著名公司都为语音识别系统实用化的开发研究投以巨资。最具代表性的是IBM的ViaVoice和Dragon公司的Dragon Dectate系统。这些系统具有说话人自适应能力,新用户不需要对全部词汇进行训练便可在使用中不断提高识别率。
当前,美国在非特定人大词汇表连续语音隐马尔可夫模型识别方面起主导作用,而日本则在大词汇表连续语音神经网络识别、模拟人工智能进行语音后处理方面处于主导地位。
我国在七十年代末就开始了语音技术的研究,但在很长一段时间内,都处于缓慢发展的阶段。直到八十年代后期,国内许多单位纷纷投入到这项研究工作中去,其中有中科院声学所,自动化所,清华大学,四川大学和西北工业大学等科研机构和高等院校,大多数研究者致力于语音识别的基础理论研究工作、模型及算法的研究和改进。但由于起步晚、基础薄弱,计算机水平不发达,导致在整个八十年代,我国在语音识别研究方面并没有形成自己的特色,更没有取得显著的成果和开发出大型性能优良的实验系统。
但进入九十年代后,我国语音识别研究的步伐就逐渐紧追国际先进水平了,在“八五”、“九五”国家科技攻关计划、国家自然科学基金、国家863计划的支持下,我国在中文语音技术的基础研究方面也取得了一系列成果。
在语音合成技术方面,中国科大讯飞公司已具有国际上最领先的核心技术;中科院声学所也在长期积累的基础上,研究开发出颇具特色的产品:在语音识别技术方面,中科院自动化所具有相当的技术优势:社科院语言所在汉语言学及实验语言科学方面同样具有深厚的积累。但是,这些成果并没有得到很好的应用,没有转化成产业;相反,中文语音技术在技术、人才、市场等方面正面临着来自国际竞争环境中越来越严峻的挑战和压力。
语音识别系统的结构
主要包括语音信号的采样和预处理部分、特征参数提取部分、语音识别核心部分以及语音识别后处理部分,图中给出了语音识别系统的基本结构。
语音识别的过程是一个模式识别匹配的过程。在这个过程中,首先要根据人的语音特点建立语音模型,对输入的语音信号进行分析,并抽取所需的特征,在此基础上建立语音识别所需的模式。而在识别过程中要根据语音识别的整体模型,将输入的语音信号的特征与已经存在的语音模式进行比较,根据一定的搜索和匹配策略,找出一系列最优的与输入的语音相匹配的模式。然后,根据此模式号的定义,通过查表就可以给出计算机的识别结果。
语音识别系统的分类
根据识别的对象不同,语音识别任务大体可分为三类,即孤立词识别(isolated word recognition),关键词识别(或称关键词检出,keyword spotting)和连续语音识别。
孤立词识别的任务是识别事先已知的孤立的词,如“开机”、“关机”等;连续语音识别的任务则是识别任意的连续语音,如一个句子或一段话;连续语音流中的关键词检测针对的是连续语音,但它并不识别全部文字,而只是检测已知的若干关键词在何处出现,如在一段话中检测“计算机”、“世界”这两个词。
根据针对的发音人,可以把语音识别技术分为特定人语音识别和非特定人语音识别,前者只能识别一个或几个人的语音,而后者则可以被任何人使用。显然,非特定人语音识别系统更符合实际需要,但它要比针对特定人的识别困难得多。
另外,根据语音设备和通道,可以分为桌面(PC)语音识别、电话语音识别和嵌入式设备(手机、PDA等)语音识别。不同的采集通道会使人的发音的声学特性发生变形,因此需要构造各自的识别系统。
语音识别技术类型
目前具有代表性的语音识别技术主要有动态时间规整技术(DTW)、隐马尔可夫模型(HMM)、矢量量化(VQ)、人工神经网络(ANN)、支持向量机(SVM)等技术方法。
动态时间规整算法(DynamicTime Warping,DTW)
是在非特定人语音识别中一种简单有效的方法,该算法基于动态规划的思想,解决了发音长短不一的模板匹配问题,是语音识别技术中出现较早、较常用的一种算法。在应用DTW算法进行语音识别时,就是将已经预处理和分帧过的语音测试信号和参考语音模板进行比较以获取他们之间的相似度,按照某种距离测度得出两模板间的相似程度并选择最佳路径。
语音识别系统是一种通过捕捉语音信号后对其进行分析和处理的技术。它主要依赖于模式匹配、统计建模和人工神经网络等方法来进行语音识别操作。语音识别系统本质上是一种模式识别系统,包括特征提取、模式匹配、参考模式库等三个基本单元。它的基本结构是先将输入的语音进行预处理,然后提取语音的特征,在此基础上建立语音识别所需的模板。然后根据此模板的定义,通过查表就可以给出计算机的识别结果。显然,这种最优的结果与特征的选择、语音模型的好坏、模板是否准确都有直接的关系。
语音识别技术的应用可以分为两个发展方向:大词汇量连续语音识别系统,主要应用于计算机的听写机,以及与电话网或者互联网相结合的语音信息查询服务系统;另外一个重要的发展方向是小型化、便携式语音产品的应用,如无线手机上的拨号、汽车设备的语音控制、智能玩具、家电遥控等方面。
以下是语音识别系统的五个部分:
1. 前端声学处理:这一部分主要负责捕获原始语音信号,并进行初步处理,如预加重、分帧、加窗、端点检测等。
2. 特征提取:在将语音信号数字化之后,这一部分负责提取语音的特征,例如梅尔频率倒谱系数(MFCC)或线性预测编码(LPC)等。
3. 声学模型:声学模型负责将提取的特征向量与语音单元(如音素、词等)进行匹配。它通常基于统计学习方法(如隐马尔可夫模型HMM或深度神经网络DNN)进行训练。
4. 语言模型:语言模型负责根据语法规则和语言知识进行翻译操作。它通常基于统计语言模型(如n-gram或循环神经网络RNN)进行训练,以预测可能的词序列。
5. 解码器:解码器负责对声学模型和语言模型的输出进行解码,生成最终的识别结果。它通常采用动态规划算法(如Viterbi算法)进行最佳路径搜索。
这些部分协同工作,共同完成语音识别任务。在实际应用中,根据不同的需求和场景,可以选择不同的技术方法和模型结构,以提高语音识别的准确率和性能。
语音识别系统的原理主要是通过将输入的语音信号转化为数字信号,然后利用各种算法和模型进行分析和识别,最终将其转化为相应的文字或命令。
整个语音识别过程可以分为以下几个步骤:
采集语音信号:使用麦克风或其他音频设备采集语音信号,并将其转化为模拟电信号。
预处理:对采集到的模拟电信号进行预处理,例如去除噪音、降低回声等,以提高后续识别的准确性。
采样和量化:将预处理后的模拟电信号进行采样和量化处理,将其转化为离散的数字信号。采样是指以固定的时间间隔对模拟信号进行采集,而量化是将每个采样点的信号强度量化为一个离散值。
特征提取:从数字信号中提取出一系列特征,用于描述语音的频谱特性。常用的特征包括梅尔频率倒谱系数(MFCC)、线性预测编码(LPC)等。
声学模型:将提取到的特征输入到声学模型中,声学模型是一种统计模型,通常基于隐马尔可夫模型(Hidden Markov Model, HMM)或深度神经网络(Deep Neural Network, DNN),用于对输入的特征序列进行识别,并输出对应的文字或命令。
解码和后处理:根据声学模型输出的概率分布,采用解码算法(如维特比算法)确定最有可能的识别结果。在得到识别结果后,还可以进行语言模型的匹配和后处理操作,进一步提高识别的准确性。
上一篇:机械键盘轴的区别
下一篇:无线充电器意义是什么
推荐阅读最新更新时间:2024-11-11 16:51
- REF193 精密微功耗、低压差电压基准的典型应用
- TB62D612FTG 24通道恒流LED驱动器3.3V或5V电源电压操作的典型应用
- DendroSlimeController_V2.0
- LTC2301 演示板、12 位、1 通道 I2C 14ksps ADC
- LTC3630AIMSE 4V 至 24V 输入至 3.3V 输出、具有外部软启动、小尺寸的 250mA 稳压器的典型应用电路
- 【CW32】基于CW32单片机的无刷电调驱动板
- 用于 Intel 486TM DX4TM Overdrive 微处理器的 LT1585CT 4.6A 低压差稳压器的典型应用
- KIT33912EVME: Evaluation Kit - 33912, SBC, DC Motor Pre-driver
- 使用 LT3045EMSE 20V、500mA、超低噪声、超高 PSRR 线性稳压器的典型应用
- 使用 Nuvoton Technology Corporation 的 M058SSAN 的参考设计