取距離近的樣本所對(duì)應(yīng)的詞標(biāo)注為該語音信號(hào)的發(fā)音,。該方法對(duì)解決孤立詞識(shí)別是有效的,,但對(duì)于大詞匯量,、非特定人連續(xù)語音識(shí)別就無能為力。因此,,進(jìn)入80年代后,,研究思路發(fā)生了重大變化,從傳統(tǒng)的基于模板匹配的技術(shù)思路開始轉(zhuǎn)向基于統(tǒng)計(jì)模型(HMM)的技術(shù)思路,。HMM的理論基礎(chǔ)在1970年前后就已經(jīng)由Baum等人建立起來,,隨后由CMU的Baker和IBM的Jelinek等人將其應(yīng)用到語音識(shí)別當(dāng)中,。HMM模型假定一個(gè)音素含有3到5個(gè)狀態(tài),同一狀態(tài)的發(fā)音相對(duì)穩(wěn)定,,不同狀態(tài)間是可以按照一定概率進(jìn)行跳轉(zhuǎn);某一狀態(tài)的特征分布可以用概率模型來描述,,使用的模型是GMM,。因此GMM-HMM框架中,HMM描述的是語音的短時(shí)平穩(wěn)的動(dòng)態(tài)性,,GMM用來描述HMM每一狀態(tài)內(nèi)部的發(fā)音特征,。基于GMM-HMM框架,,研究者提出各種改進(jìn)方法,,如結(jié)合上下文信息的動(dòng)態(tài)貝葉斯方法、區(qū)分性訓(xùn)練方法,、自適應(yīng)訓(xùn)練方法,、HMM/NN混合模型方法等。這些方法都對(duì)語音識(shí)別研究產(chǎn)生了深遠(yuǎn)影響,,并為下一代語音識(shí)別技術(shù)的產(chǎn)生做好了準(zhǔn)備,。自上世紀(jì)90年代語音識(shí)別聲學(xué)模型的區(qū)分性訓(xùn)練準(zhǔn)則和模型自適應(yīng)方法被提出以后,在很長一段內(nèi)語音識(shí)別的發(fā)展比較緩慢,,語音識(shí)別錯(cuò)誤率那條線一直沒有明顯下降,。DNN-HMM時(shí)代2006年,Hinton提出深度置信網(wǎng)絡(luò),。
語音識(shí)別模塊被廣泛應(yīng)用在AI人工智能產(chǎn)品,、智能家居遙控、智能玩具等多種領(lǐng)域上,。廣州移動(dòng)語音識(shí)別標(biāo)準(zhǔn)
feed-forwardsequentialmemorynetwork,,F(xiàn)SMN),在DNN的隱層旁增加了一個(gè)“記憶模塊”,,這個(gè)記憶模塊用來存儲(chǔ)對(duì)判斷當(dāng)前語音幀有用的語音信號(hào)的歷史信息和未來信息,,并且只需等待有限長度的未來語音幀。隨后,,科大訊飛進(jìn)一步提出了深度全序列卷積神經(jīng)網(wǎng)絡(luò)(DFCNN),。2018年,阿里巴巴改良并開源了語音識(shí)別模型DFSMN(DeepFSMN),。2018年,,中科院自動(dòng)化所率先把Transformer應(yīng)用到語音識(shí)別任務(wù),并進(jìn)一步拓展到中文語音識(shí)別,。不管是在研究成果還是在產(chǎn)品性能體驗(yàn)上,,國內(nèi)的語音行業(yè)整體水平已經(jīng)達(dá)到甚至超越了國際水平,。2016年10月,時(shí)任百度首席科學(xué)家的吳恩達(dá)在對(duì)微軟的語音識(shí)別技術(shù)與人類水平持平的消息表示祝賀的同時(shí)聲稱,,百度的漢語語音識(shí)別在2015年就已經(jīng)超越了人類的平均水平,,也就是說百度比微軟提前一年實(shí)現(xiàn)了這一成績(jī)。當(dāng)前語音識(shí)別系統(tǒng)依然面臨著不少應(yīng)用挑戰(zhàn),,其中包括以下主要問題:魯棒性,。目前語音識(shí)別準(zhǔn)確率超過人類水平主要還是在受限的場(chǎng)景下,比如在安靜環(huán)境的情況下,,而一旦加入干擾信號(hào),,尤其是環(huán)境噪聲和人聲干擾,性能往往會(huì)明顯下降,。因此,,如何在復(fù)雜場(chǎng)景(包括非平穩(wěn)噪聲、混響,、遠(yuǎn)場(chǎng))下,,提高語音識(shí)別的魯棒性,研發(fā)"能用=>好用"的語音識(shí)別產(chǎn)品,。江蘇云語音識(shí)別一個(gè)連續(xù)語音識(shí)別系統(tǒng)大致包含了四個(gè)主要部分:特征提取,、聲學(xué)模型、語言模型和解碼器等,。
語音識(shí)別服務(wù)具備識(shí)別準(zhǔn)確率高,、接入便捷、性能穩(wěn)定等特點(diǎn),。語音識(shí)別服務(wù)開放實(shí)時(shí)語音識(shí)別,、一句話識(shí)別和錄音文件識(shí)別三種服務(wù)形式,滿足不同類型開發(fā)者需求,。語音識(shí)別功能采用百度語音識(shí)別庫,,首先利用PyAudio庫錄制語音指令,保存為受支持的wav音頻文件,,然后利用百度語音識(shí)別庫提供的方法實(shí)現(xiàn)語音識(shí)別,,檢測(cè)識(shí)別結(jié)果,利用PyUserInput庫提供的方法模擬控制web頁面滾動(dòng),。百度語音識(shí)別為開發(fā)者提供業(yè)界的語音服務(wù),通過場(chǎng)景識(shí)別優(yōu)化,為車載導(dǎo)航,智能家居和社交聊天等行業(yè)提供語音解決方案,準(zhǔn)確率達(dá)到90%以上,讓您的應(yīng)用繪“聲”繪色,。實(shí)時(shí)語音識(shí)別應(yīng)用場(chǎng)景有哪些?1,、實(shí)時(shí)客服記錄將呼叫中心的語音實(shí)時(shí)轉(zhuǎn)寫到文字,,可以實(shí)現(xiàn)實(shí)時(shí)質(zhì)檢和監(jiān)控2、會(huì)議訪談?dòng)涗泴?huì)議和訪談的音頻實(shí)時(shí)轉(zhuǎn)為文字,提升記錄效率,,方便企業(yè)后期對(duì)會(huì)議內(nèi)容進(jìn)行整理3,、視頻實(shí)時(shí)直播字幕將視頻或線上直播中的音頻實(shí)時(shí)轉(zhuǎn)為字幕,為觀眾提高直播觀感體驗(yàn),。
還可能存在語種混雜現(xiàn)象,,如中英混雜(尤其是城市白領(lǐng))、普通話與方言混雜,,但商業(yè)機(jī)構(gòu)在這方面的投入還不多,,對(duì)于中英混雜語音一般*能識(shí)別簡(jiǎn)單的英文詞匯(如"你家Wi-Fi密碼是多少"),因此如何有效提升多語種識(shí)別的準(zhǔn)確率,,也是當(dāng)前語音識(shí)別技術(shù)面臨的挑戰(zhàn)之一。語音識(shí)別建模方法語音識(shí)別建模方法主要分為模板匹配,、統(tǒng)計(jì)模型和深度模型幾種類型,,以下分別介紹DTW、GMM-HMM,、DNN-HMM和端到端模型,。往往會(huì)因?yàn)檎Z速、語調(diào)等差異導(dǎo)致這個(gè)詞的發(fā)音特征和時(shí)間長短各不相同,。這樣就造成通過采樣得到的語音數(shù)據(jù)在時(shí)間軸上無法對(duì)齊的情況,。如果時(shí)間序列無法對(duì)齊,那么傳統(tǒng)的歐氏距離是無法有效地衡量出這兩個(gè)序列間真實(shí)的相似性的,。而DTW的提出就是為了解決這一問題,,它是一種將兩個(gè)不等長時(shí)間序列進(jìn)行對(duì)齊并且衡量出這兩個(gè)序列間相似性的有效方法。DTW采用動(dòng)態(tài)規(guī)劃的算法思想,,通過時(shí)間彎折,,實(shí)現(xiàn)P和Q兩條語音的不等長匹配,將語音匹配相似度問題轉(zhuǎn)換為**優(yōu)路徑問題,。DTW是模板匹配法中的典型方法,,非常適合用于小詞匯量孤立詞語音識(shí)別系統(tǒng)。但DTW過分依賴端點(diǎn)檢測(cè),,不適合用于連續(xù)語音識(shí)別,,DTW對(duì)特定人的識(shí)別效果較好。動(dòng)態(tài)時(shí)間規(guī)整(DTW),,它是在馬爾可夫鏈的基礎(chǔ)上發(fā)展起來的,。語音識(shí)別與鍵盤、鼠標(biāo)或觸摸屏等應(yīng)是融合關(guān)系,。
我們可以用語音跟它們做些簡(jiǎn)單交流,,完成一些簡(jiǎn)單的任務(wù)等等。語音識(shí)別技術(shù)的應(yīng)用領(lǐng)域:汽車語音控制當(dāng)我們駕駛汽車在行駛過程中,必須時(shí)刻握好方向盤,,但是難免有時(shí)候遇到急事需要撥打電話這些,,這時(shí)候運(yùn)用汽車上的語音撥號(hào)功能的免提電話通信方式便可簡(jiǎn)單實(shí)現(xiàn)。此外,,對(duì)汽車的衛(wèi)星導(dǎo)航定位系統(tǒng)(GPS)的操作,,汽車空調(diào)、照明以及音響等設(shè)備的操作,,同樣也可以用語音的方式進(jìn)行操作,。語音識(shí)別技術(shù)的應(yīng)用領(lǐng)域:工業(yè)控制及醫(yī)療領(lǐng)域在工業(yè)及醫(yī)療領(lǐng)域上,運(yùn)用智能語音交互,,能夠讓我們解放雙手,,只需要對(duì)機(jī)器發(fā)出命令,就可以讓其操作完成需要的任務(wù),。提升了工作的效率,。語音識(shí)別技術(shù)在個(gè)人助理、智能家居等很多領(lǐng)域都有運(yùn)用到,,隨著語音識(shí)別技術(shù)在未來的不斷發(fā)展,,語音識(shí)別芯片的不敢提高,給我們的生活帶來了更大的便利和智能化,。原理語音識(shí)別技術(shù)是讓機(jī)器通過識(shí)別把語音信號(hào)轉(zhuǎn)變?yōu)槲谋?,進(jìn)而通過理解轉(zhuǎn)變?yōu)橹噶畹募夹g(shù)。天津語音識(shí)別機(jī)
語音識(shí)別的輸入實(shí)際上就是一段隨時(shí)間播放的信號(hào)序列,,而輸出則是一段文本序列,。廣州移動(dòng)語音識(shí)別標(biāo)準(zhǔn)
另一方面,與業(yè)界對(duì)語音識(shí)別的期望過高有關(guān),,實(shí)際上語音識(shí)別與鍵盤,、鼠標(biāo)或觸摸屏等應(yīng)是融合關(guān)系,而非替代關(guān)系,。深度學(xué)習(xí)技術(shù)自2009年興起之后,,已經(jīng)取得了長足進(jìn)步。語音識(shí)別的精度和速度取決于實(shí)際應(yīng)用環(huán)境,,但在安靜環(huán)境,、標(biāo)準(zhǔn)口音、常見詞匯場(chǎng)景下的語音識(shí)別率已經(jīng)超過95%,,意味著具備了與人類相仿的語言識(shí)別能力,,而這也是語音識(shí)別技術(shù)當(dāng)前發(fā)展比較火熱的原因。隨著技術(shù)的發(fā)展,,現(xiàn)在口音,、方言,、噪聲等場(chǎng)景下的語音識(shí)別也達(dá)到了可用狀態(tài),特別是遠(yuǎn)場(chǎng)語音識(shí)別已經(jīng)隨著智能音箱的興起成為全球消費(fèi)電子領(lǐng)域應(yīng)用為成功的技術(shù)之一,。由于語音交互提供了更自然,、更便利、更高效的溝通形式,,語音必定將成為未來主要的人機(jī)互動(dòng)接口之一,。當(dāng)然,當(dāng)前技術(shù)還存在很多不足,,如對(duì)于強(qiáng)噪聲,、超遠(yuǎn)場(chǎng)、強(qiáng)干擾,、多語種,、大詞匯等場(chǎng)景下的語音識(shí)別還需要很大的提升;另外,,多人語音識(shí)別和離線語音識(shí)別也是當(dāng)前需要重點(diǎn)解決的問題,。雖然語音識(shí)別還無法做到無限制領(lǐng)域、無限制人群的應(yīng)用,,但是至少從應(yīng)用實(shí)踐中我們看到了一些希望。本篇文章將從技術(shù)和產(chǎn)業(yè)兩個(gè)角度來回顧一下語音識(shí)別發(fā)展的歷程和現(xiàn)狀,,并分析一些未來趨勢(shì),,希望能幫助更多年輕技術(shù)人員了解語音行業(yè)。廣州移動(dòng)語音識(shí)別標(biāo)準(zhǔn)