国产一区二区三精品久久久无广告,中文无码伦av中文字幕,久久99久久99精品免视看看,亚洲a∨无码精品色午夜

語音識別系統范例6篇

前言:中文期刊網精心挑選了語音識別系統范文供你參考和學習,希望我們的參考范文能激發你的文章創作靈感,歡迎閱讀。

語音識別系統

語音識別系統范文1

關鍵詞:語音識別;動態時間規整(DTW);數字信號處理器(DSP)

1 引言

語音識別按不同的角度有以下幾種分類方法:從所要識別的單位,有孤立詞識別、音素識別、音節識別、孤立句識別、連續語音識別和理解。目前已進入識別的語音識別系統是單詞識別。以幾百個單詞為限定識別對象。從識別的詞匯量來分。有小詞匯(10-50個)、中詞匯(50-200個)、大詞匯(200以上)等。從講話人的范圍來分。有單個特定講話人、多講話人和與講話者者無關。特定講話人比較簡單,能夠得到較高的識別率。后兩者難度較大,不容易得到高的識別率。 從識別的方法分。有模塊匹配法、隨機模型法和概率語法分析法。這三種都屬于統計模式識別方法。

2 系統硬件及組成

2.1 系統概述

語音識別系統的典型實現方案如圖1所示。輸入的模擬語音信號首先要進行預處理,語音信號經過預處理后,接下來重要的一環就是特征參數提取,其目的是從語音波形中提取出隨時間變化的語音特征序列。然后建立聲學模型,在識別的時候將輸入的語音特征同聲學模型進行比較,得到最佳的識別結果。

2.2 硬件構成

本文采用DSP芯片為核心(圖2所示),系統包括直接雙訪問快速SRAM、一路ADC/一路DAC及相應的模擬信號放大器和抗混疊濾波器。外部只需擴展FLASH存儲器、電源模塊等少量電路即可構成完整系統應用。

2.3 系統主要功能模塊構成

語音處理模塊采用TI TMS320VC5402, TMS320VC5402含4 KB的片內ROM和16 KB的雙存取RAM,一個HPI(HostPortInterface)接口,二個多通道緩沖單口MCBSP(Multi-Channel Buffered SerialPort),單周期指令執行時間10 ns,帶有符合IEEE1149.1標準的JTAG邊界掃描仿真邏輯。語音輸入、輸出的模擬前端采用TI公司的TLC320ADSOC,它是一款集成ADC和DAC于一體的模擬接口電路,并且與DSP接口簡單,性能高、功耗低,已成為當前語音處理的主流產品。16位數據結構,音頻采樣頻率為2~22.05 kHz,內含抗混疊濾波器和重構濾波器的模擬接口芯片,還有一個能與許多DSP芯片相連的同步串行通信接口。TLC320AD50C片內還包括一個定時器(調整采樣率和幀同步延時)和控制器(調整編程放大增益、鎖相環PLL、主從模式)。TLC320AD50C與TMS320VC5402的硬件連接,如圖3所示。

3 結論

本文以TMS320VC5402芯片為核心的系統硬件設計迸行了研究,通過TLC320AD50C對語音信號進行A/D轉換,通過TMS320VC5402對語音信號“0”、“1”、“2”進行訓練和識別,并由對于燈LED0、LED1、LED2亮來顯示結果是否正確;該系統核心識別算法采用動態時間規整(DTW)算法,主要流程包括預處理、端點檢測、提取特征值、模式匹配和模板訓練,取得了很好的識別效果。

參考文獻

[1] 朱銘鋯, 趙勇, 甘泉. DSP應用系統設計 [M].北京:電子工業出版社,2002.

[2] 郭華. 自適應濾波算法及應用研究[D].蘭州:西北師范大學,2007.

[3] 張雄偉..DSP芯片的原理與開發應用[M].北京:電子工業出版社,2009.

[4] 張德豐. 數字圖象處理(MATLAB版)[M].北京:人民郵電出版社,2009.

作者簡介

王宇,邵陽學院魏源國際學院電子科學與技術專業學生。

語音識別系統范文2

關鍵詞:語音識別;數字信號處理器;美爾頻率倒譜系數;動態時間規整

中圖分類號:TP319 文獻標識碼:A 文章編號:2095-1302(2012)09-0014-02

Design of voice recognition system based on TMS320C6713

XU Fei-yan1, CHEN Tao2, SUN Xu3, FANG Zong-liang1, LI Li-rong1

(1. Department 2, Anti-Chemical Institute, Beijing 102205, China;

2. Beijing Research & Development Center of Xiamen Jiuhua Communications Equipment Factory, Beijing 100083, China;

3. Chengdu University of Technology, Chengdu 610059,China)

Abstract: Taking the TMS320C6713DSP with floating-point functions produced by Texas Instruments chip as the system core processor and the MSP430 microcontroller as a peripheral controller, a real-time speech recognition system is designed in the paper. The kernel algorithm for the system uses Mel-frequency cepstral coefficients as feature parameters for feature extraction and dynamic time warping (DTW) algorithm for pattern matching. Programming and debugging of the system indicate that the system has good flexibility and real-time capability and improves the performance in noise immunity, robustness and recognition rates. In many areas, it has a practical reference value.

Keywords: speech recognition; digital signal processing; Mel-frequency cepstral coefficients; dynamic time warping

0 引 言

語音識別[1]是一種最為理想的人機通信方式。隨著計算機技術的進步,語音識別技術已經逐漸應用于控制、通信、消費等行業[2]。但是,語音識別系統在商品化的進程中還存在著諸如識別速度、系統魯棒性以及更高的識別率等具體問題。如何提高語音識別系統的這些性能,使系統更快、更穩定地工作是目前研究的重點。本文正是基于這種思想,通過選用德州儀器公司帶浮點功能的DSP芯片TMS320C6713(主頻為200 MHz)作為語音信號處理的核心處理器,同時結合MSP430單片機作為控制器共同構建硬件系統, 以美爾頻率倒譜系數作為語音信號特征參數,結合動態時間規整孤立詞識別算法進行模式匹配,設計了一種具有良好實時性和高識別率及魯棒性的語音識別系統。

1 系統硬件設計

本設計的整個硬件系統是以DSP為核心電路對語音信號進行采集和處理,再經過A/D轉換電路把模擬語音信號轉換成數字語音信號,然后送入DSP芯片進行匹配識別,最后將識別后的結果通過單片機控制模塊外接的兩個紅綠顏色的二極管進行處理表示,其中紅色表示拒絕命令,綠色表示接受命令。系統的硬件平臺主要由DSP系統核心處理模塊、語音信號采集模塊、單片機控制模塊、外擴存儲器模塊和電路等幾個模塊構成。系統的硬件設計總體方案框圖如圖1所示。

1.1 DSP系統核心處理模塊

作為系統的核心模塊DSP芯片采用TMS320C6713,該芯片的主頻可達200 MHz。這是TI公司推出的一種新型的浮點DSP芯片,是繼定點DSP芯片TMS320C62X系列后開發的。該芯片的內部結構在TMS320C62X的基礎上進行了改進,內部同樣集成了多個功能單元,可同時執行8條指令,其運算能力可達1G FLOPS。片內具有豐富的外設,如EDMA、EMIF、McBSP、HPI、GPIO等[4]。

TMS320C6713 以其出色的運算能力、高效的指令集、智能外設、大容量的片內存儲器和大范圍的尋址能力,十分適合對運算能力和存儲量有高要求的應用場合。

語音識別系統范文3

關鍵詞:語音識別;MYASR系統;XML語言

1.引言

在小詞匯量的語音識別系統中,主要分為孤立詞識別和基于詞網模型的連續語音識別。前者通過詞發音端點分割算法,把每個詞的發音從整段語音中分割出來,然后再到模型集中去尋找最佳的匹配作為識別結果。XML同HTML一樣,都來自SGML(標準通用標記語言)。SGML是一種在Web發明之前就早已存在的用標記來描述文檔資料的通用語言。但SGML十分龐大且難于學習和使用。鑒于此,人們提出了XML 語言,它具有可擴展性、靈活性、自描述性、簡明性的優點。

在MYASR系統中有多個功能模塊,每個功能模塊都有各自的參數,采用XML語言對這些參數進行描述更加直觀,可讀性更強。例如,MYASR中MFCC編碼的XML描述如下:

<mfcc_params>

 <type_mask>  MFCC_0_D_A  </type_mask>

 <sample_rate> 16000 </sample_rate>

 <win_size>  400 </win_size>

 <win_shift> 160 </win_shift>

 <fft_size>  512 </fft_size>

 <low_freq>  200  </low_freq>

 <high_freq> 7000  </high_freq>

 <pre_enphasis> 0.97 </pre_enphasis>

 <mel_num>  26  </mel_num>

 <cep_num>  12  </cep_num>

 <cep_lifter>  10  </cep_lifter>

</mfcc_params>

MYASR通過XML解析器將XML元素中的參數提取出來,然后再傳遞給各個功能模塊。當需要增加參數時,只要在XML文件中適當位置增加一個元素(Element)即可,具有良好的可擴展性。

3.系統開發

MYASR系統的模塊結構如下所示:

3.1前端處理

MYASR的前端處理包括以下功能模塊:自動增益控制(AGC)、噪音消除、預加重處理。其相應的XML描述如下:

<preprocess_bat workdir="d:worktmp">

 <params>

  <frame_ts> 20 </frame_ts>       //幀長

  <agc>

   <level> 0.5 </level>  

   <max_gain> 2.0 </max_gain>  //最大增幅

   <min_gain> 1.0 </min_gain>   //最小增幅

  <agc>

  <pre_enphasis> 0.97 </pre_enphasis>//預加重系數

  <denoise>1</denoise>    //噪音消除

 </params>

 <transcrip> pretrans.scp </transcrip>

</preprocess_bat>

其中屬性"workdir"表示當前的工作目錄,元素<agc>表示自動增益控制參數,元素<pre_enphasis>表示預加重參數,元素<denoise>表示是否對語音進行噪音消除。元素<transcrip>表示批處理文件,此文件中描述了目標文件名及處理后的文件名,內容如下:

"speech1.wav"  "speech1_dn.wav"

"speech2.wav"  "speech2_dn.wav"

"speech3.wav"  "speech3_dn.wav"

.........

3.2端點分割

在MYASR系統中,實現兩種類型的端點分割:句子端點檢測,詞端點檢測。采用的靜音檢測方法有【2】:基于短時能量、基于短時平均過零率、和基于GMM模型。其XML描述如下:

 <endpoint>

  <endpoint_method> SENT_CUT </endpoint_method>

  <vad_method> GMM_VAD </vad_method>

  <sil_interval> 500 </sil_interval>            //單位為毫秒

</endpoint>

元素<endpoint_method>表示端點分割方法:設置SENT_CUT表示句子端點分割,設置WORD_CUT表示詞端點分割。元素<vad_method>表示靜音檢測的方法:設置GMM_VAD 表示采用基于GMM模型,PW_VAD表示基于短時能量,COS_VAD表示基于短時平均過零率。<sil_interval>元素表示檢測對象之間允許的停頓時間,超過停頓時間意味著出現新的句子或詞。

3.3特征提取

MYASR系統中目前采用MFCC結合動態差分參數作為特征矢量。將語音文件轉換為MFCC編碼的XML描述文件如下所示:

 <wav2mfcc workdir = "d:myworkdir">

  <params_xml>mfccparams.xml</params_xml>

  <transcrip> trans.scp </transcrip>

</wav2mfcc>

其中mfccparams.xml是MFC C特征參數的描述文件,內容如下:

<mfcc_params>

 <type_mask>  MFCC_0_D_A  </type_mask>//類型

 <sample_rate> 16000 </sample_rate>  //采樣率

       <win_size>  400  </win_size> //幀長

 <win_shift> 160   </win_shift>    //幀移

 <fft_size>  512   </fft_size>   //FFT的窗長

 <low_freq>  200  </low_freq>   //截止的最低頻率

 <high_freq>  7000 </high_freq>   //截止的最高頻率

 <mel_num>  26  </mel_num>   //MEL濾波器數

 <cep_num>  12  </cep_num>   //MFCC維數

 <cep_lifter>  10  </cep_lifter>   //參數提升系數

</mfcc_params>

其中<type_mask>元素表示特征矢量標志,有6種類型:

表3-1  MYASR中MFCC編碼類型

標志

含義

MFCC

MFCC參數

MFCC_0

MFCC參數加對數能量

MFCC_D

MFCC參數及其一階差分

MFCC_0_D

MFCC參數加對數能量,及一階差分

MFCC_D_A

MFCC參數及其一階、二階差分

MFCC_0_D_A

MFCC參數加對數能量,及一階、二階差分

<transcrip>元素中的trans.tsp文件描述了語音源文件及轉換成MFCC的目標文件,內容如下:

"speech1.wav"  "speech1.mfc"

"speech2.wav"  "speech2.mfc"

"speech3.wav"  "speech3.mfc"

.........

3.4模型訓練

MYASR采用了連續概率密度的HMM模型,模型參數初始化采用了"K-均值分割"算法,參數重估采用"Baum-Welch"算法。其XML描述文件如下:

<hmm_train workdir="d:worktmpmytimit">

 <label_scrip> phones.lst </label_scrip>    

 <featlep_scrip> trainmfcclabep.scp </featlep_scrip>  

 <hmm_params>

  <state_num>3</ state_num >      //HMM狀態數

  <mixture>4</mixture>       //高斯分量個數

  <veclen>39</veclen>       //特征矢量維數

  <cluster>GMM_EM</cluster>     //聚類算法

  <feat_flag>MFCC_0_D_A</feat_flag>   //特征矢量標志

 </hmm_params>

 <model_file>modelhmmmodelEM4.xml</model_file> //輸出文件

</ hmm _train>

其中,<label_scrip>元素中的文件phones.lst表示要訓練的那些詞或音子。

<featlep_scrip>元素中的文件trainmfcclabep.scp描述了特征矢量文件及其標注文件,內容如下:

"mfcspeech1.mfc"  "labspeech1.lab"

"mfcspeech2.mfc"  "labspeech2.lab"

"mfcspeech3.mfc"  "labspeech3.lab"

.........

標注文件".lab"中注明了每個單元的發音起點和終點,MYASR將根據標注文件從特征文件中讀取特征矢量進行HMM模型的訓練。標注文件內容如下:

0    191   sil

191  285   sh

285  358   ix

358  415   hh

415  548   eh

548  646   jh

646  720   ih

720  790   d

790  920   ah

....

其中時間單位為毫秒。

<cluster>元素表示"K-均值分割"算法中對B參數進行重估所采用的算法,有兩種選項:GMM_EM表示EM算法,K_MEANS表示"K-means"算法。實驗結果顯示,EM算法比"K-means"算法具有更好的性能。

<model_file>表示訓練輸出的HMM模型文件,內容如下:

<hmm_set>

 <params>

  <feat_mask>MFCC_0_D_A</feat_ mask >

  <state_num>3</state_num>

  <mixture>4</mixture>

  <vec_len>39</vec_len>

 </params>

 <hmm >

  <state>

 <mixture> 1.906841e+001 1.900540e-001 ......</mixture> //均值

<var>     2.945649e+001 1.096035e+002......</var>    //方差

<weight>  2.212352e-001 </weight>  

 //權重

           </state>

           ......

</hmm>

......

</hmm_ set >

3.5詞網構建

3.5.1 詞網模型的雙層結構

MYASR中的詞網模型分為兩層:一層是描述層,主要用于描述詞網的結構,包括上下文無關文法和有限狀態圖;另一層是模型層,這一層由HMM模型構成的搜索網絡,是搜索算法的輸入。首先由用戶定義語法規則,然后轉換成有限狀態圖,最后結合HMM模型集和發音字典將其轉化成搜索算法可以處理的模型層搜索網絡。

3.5.2 描述層到模型層的轉換

在模型層搜索網絡中,按節點是否有詞輸出分為兩類:空節點和詞節點??展濣c中不含有HMM模型,而只是作為詞網中的一個過度節點,如起始節點(#START),終止節點(#END),中轉節點(#L)都是沒有詞輸出的節點。而詞節點則包含了構成這個詞的HMM模型。

詞網模型的有限狀態圖轉換成模型層搜索網絡的過程為:當遇到空節點時,不作處理;當遇到詞結點時,在字典哈希表找到這個詞,并保存word_id,word_id是這個詞在字典哈希表的索引,當搜索結束后,回溯時就是根據這個word_id找到哈希表中對應的詞;同時根據這個詞的發音,到HMM哈希表中查找子詞的HMM模型,然后在這個詞結點中創建指向子詞HMM模型的指針。轉換后的模型層搜索網絡如圖3-4所示。

    模型層搜索網絡構建后,就可以用Token-Passing算法進行搜索。

4 總結

本文在研究語音識別理論的基礎上,設計并開發了基于詞網模型的連續語音識別系統-MYASR。MYASR提供了豐富的功能模塊,使開發一個基于詞網模型的連續語音識別應用系統更加方便,同時也是語音識別研究的實驗平臺。MYASR所采用的XML描述文件,使系統具有良好的可讀性和可擴展性。通過在TIMIT語料庫上單音子連續語音識別的實驗顯示,MYASR具有很高的識別性能和實時性能。當前系統只是在Windows平臺上,為適應各種應用的需要,在后續的語音識別系統設計中,可考慮將系統移植到嵌入式平臺。

語音識別系統范文4

【關鍵詞】語音識別;TMS320VC5402DSP;Mel頻率倒譜參數MFCC:DTW算法

1.引言

近年來,家居空調的語音智能控制已經成為一個非?;钴S的研究領域,語音識別技術作為一種重要的人機交互手段,輔助甚至取代傳統的遙控器,在智能控制領域有著廣闊的發展前景。

語音識別是機器通過識別和理解過程把語音信號轉變為相應的文件或命令的技術。隨著DSP技術的快速發展及性能不斷完善,基于DSP的語音識別算法得到了實現,并且在費用、功耗、速度、精確度和體積等方面有著PC機所不具備的優勢,具有廣闊的應用前景。

2.語音識別的基本原理

語音識別的過程是一個模式匹配的過程。首先根據語音特點建立語音模型,模型通常由聲學模型和語言模型兩部分組成,分別對應于語音到半音節概率的計算和半音節到字概率的計算。對輸入的語音信號進行預處理后提取所需的語音特征,在此基礎上建立語音識別所需的模板。在識別過程中,根據語音識別的整體模型,將輸入的語音特征與已有的語音模板進行比較,找出最佳匹配對象作為識別結果。一般的語音處理流程如圖1所示。

圖1 語音識別系統的處理流程圖

3.系統的硬件設計

通過對系統功能分析,最終確定系統由語音采集與輸出模塊、語音處理模塊、程序數據存儲器FLASH模塊、數據存儲器SRAM模塊、系統時序邏輯控制CPLD模塊、JTAG接口模塊等組成,設計的框圖如圖2所示。

圖2 語音識別系統的硬件結構框圖

(1)語音采集與輸出模塊。該模塊由高性能的立體聲音頻Codec芯片TLV320AIC23B來完成。模數、數模轉換集成在一塊芯片內,內置耳機輸出放大器,支持MIC和LINE IN兩種輸入方式,輸入和輸出增益可編程設置。編程設置內部的11個16位寄存器可得所需的采樣頻率、輸入輸出增益和傳輸數據格式等。

(2)語音處理模塊。采用TMS320VC5402 16位微處理器,處理速度快,最快運行速度可達100MIPS,功耗低,是一款理想的DSP處理器。作為系統的整個核心,其主要功能是接收來自A/D的數據,完成語音訓練和語音識別。具有豐富的片內外設,主要包括通用I/O引腳、硬件定時器、軟件可編程等待狀態產生器、可編程塊開關模塊、增強型并行主機接口、兩個多通道緩沖串口、時鐘發生器、DMA控制器、JTAG接口,具有管理中斷、循環運算和功能調用的控制結構。

(3)FLASH模塊。由于TMS320VC5402片上沒有FLASH且片內RAM只有16K,因此需要外擴外部存儲器使其成為獨立系統,這里選用了存儲容量為256K的低功耗FLASH芯片SST39VF400B,RAM選用了64K SRAM CY7C1021。

(4)CPLD模塊。用來對存儲器的擴展實現邏輯譯碼,CPLD的供電電壓和DSP相同為3.3V,并且可在線編程,方便修改譯碼邏輯。DSP的一些控制信號經過CPLD后輸出了RAM和FLASH的片選及讀寫信號,從而實現DSP對FLASH與SRAM的讀寫操作。

(5)電源模塊。電源設計的好壞直接影響到系統的穩定。這里選用了TI公司的TPS767D318電源方案,該芯片輸入電壓為+5V,輸出3.3V和1.8V兩路電壓,能夠很好的滿足DSP系統的要求。

(6)空調控制器模塊。該模塊同傳統的空調控制器,接收TMS320VC5402模塊發來的功能控制命令,實現空調功能調整。

(7)電路模塊。復位電路、時鐘電路、串口電路和音頻電路等。

4.系統的軟件設計

信號采集為避免信號失真選用優質電容MIC作為輸入音源。聲音通過麥克風輸入到語音信號處理板,通過TLV320AIC23B的A/D轉換變成數字信號,經過DSP處理后通過D/A轉換輸出聲音,然后對聲音進行監測,并對采集的波形進行反復對比分析,以提取最佳的波形樣本。程序設計流程圖如圖3所示。

圖3 系統軟件流程圖

4.1 端點檢測

語音的前端處理主要包括對語音采樣、A/D變換、預加重、分幀、加窗和端點檢測。端點檢測是指從噪聲中檢測出說話人的語音命令,獲得語音開始和結束的時間點。本系統采用短時平均幅度和短時過零率相結合的辦法。在判斷語音的起始點時,只要短時過零率或短時平均幅度有一個超出判決門限時,便開始保存信號,然后確定隨后的幾幀數據是否仍滿足判決門限,這時才可以確定剛采集進來的數據是有效的,否則認為是噪聲引起的,將重新進行起點的判定。語音信號的結束點采取過零率和幅度相結合的辦法,如果語音信號的連續幾幀的平均能量低于能量門限,那么就認為語音信號結束。

用于空調的常用命令控制詞匯有:“開啟”、“制冷”、“溫度”、“睡眠”、數字“0~9”等,待識別的詞匯范圍相對較窄,較易識別,采用上述方法對空調命令的起止點判定達到了很好的效果,經多次反復試驗,其準確率達98%。

4.2 特征參數提取

語音信號中含有非常豐富的信息,特征提取則可以去除冗余信息,以便用于后端模型的建立和匹配。語音識別中對特征參數的要求是:

(1)具有很好的區分性,能夠有效地代表語音特征;

(2)各階參數之間有良好的獨立性;

(3)特征參數要計算方便,保證識別的實時實現。

現在較常用的特征參數有線性預測參數(LPCC)、Mel頻率倒譜參數(MFCC)、線譜對(LSP)參數等。本文選擇MFCC作為特征參數。它的核心思想是利用人耳的感知特性,在語音的頻譜范圍內設置若干個帶通濾波器,每個濾波器具備三角或正弦濾波特性,計算相應濾波器組的信號能量,再通過DCT計算對應的倒譜系數,符合語音識別中對特征參數的要求。

MFCC求取主要步驟是:

(1)給每一幀語音加窗做FFT,取出幅度;

(2)將幅度和濾波器組中每一個三角濾波器進行Binning運算;

(3)求log,換算成對數率;

(4)從對數率的濾波器組幅度,使用DCT變換求出MFCC系數。

4.3 模板訓練和語音識別

在識別系統后端,從已知模式中獲取用以表征該模式本質特征的模型參數即形成模式庫,再將輸入的語音提取特征矢量參數后與已建立的聲學模型進行相似度比較,同時根據一定的語法規則和判別規則決策出最終的識別結果。

目前語音識別中使用模板匹配技術比較常見的有隱馬爾可夫模型(HMM)、人工神經元網絡(ANN)和動態時間規整算法(DTW)。綜合考慮到算法的復雜性和計算量的大小、算法在DSP系統實現的難易程度以及所需要的DSP資源,系統采用算法相對簡單和計算量相對較小的DTW算法,并針對其存在的運算量大、識別性能嚴重依賴端點檢測的精度、語音信號的時序動態信息沒有被充分利用等問題加以改進。

DTW算法是把時間規整和距離測度計算結合起來的一種非線性規整技術,該算法基于動態規劃的思想,解決了發音長短不一的模板匹配問題。算法原理是假設待測語音共有N幀矢量,參考模板共有M幀矢量,且N≠M,則動態時間規整就是尋找一個時間規整函數j=w(i),它將測試矢量的時間軸i非線性地映射到模板的時間軸j上,并使該函數w滿足第N幀測試矢量和第M幀模板矢量之間的距離測度最小。通常規整函數w(i)被限制在一個平行四邊形內,它的一條邊的斜率為2,另一條邊的斜率為1/2,規整函數的起始點為(1,1),終止點為(N,M)。

為了提高識別效率,本文對DTW算法的搜索寬度限制條件進行了改進。以局部約束路徑為例,待測模板每前進一幀,對于點(I,j)只需用到其前一列(i-1,j),(i-1,j-1),(i-1,j-2)三點的累積距離,也就是j-1和j-2兩行的累積距離。以此類推,整個過程中每一行的格點可以利用前兩行格點的累積距離計算出該點的累積距離。在本系統應用中,DTW算法加入了一些搜索限制條件,實際的搜索范圍基本上局限于對角線附近的帶狀區域。在識別的過程中,系統分配的存儲空間是搜索寬度的3倍。

5.系統測試結果及誤差分析

空調的語音識別系統在不同的環境中使用具有差異性,為了測試系統在復雜環境下的穩定性及識別率,進行兩種測試:一是安靜環境下的測試;二是復雜環境下的測試。

在實驗室安靜的環境下對男女聲識別進行了測試。發音內容為常用的空調控制命令,錄音時間大約長為1~1.5s,詞語發音的時間大約為500~800ms,采樣率為24KHz,幀長20ms,幀移10ms,其端點檢測基本上能排除前面錄音的無聲段的噪音,識別率達到了96%以上,原DTW算法的識別時間是6~7s,而采用本文改進算法的識別時間減少到2~5s。因此,本文方法可以實現快速準確的簡單語音識別。

當周圍環境噪聲較大,信噪比SNR<5dB時,識別率會有所下降。但是隨著信噪比的不斷增加,詞匯錯誤率逐漸降低,并趨于穩定狀態,系統的識別率保持在94%以上。實驗證明,采用本系統,語音識別率高,且抗噪性能好,對復雜環境的適應性強。

錄音過程中,本身含有較大的噪聲,DSP程序中沒有對語音信號作降噪處理,這是影響識別率的原因;另外,不同的人發同一個音的長度和強弱方面均有差異,這也是影響識別率的原因。

6.結論

該空調語音識別系統以TMS320VC5402DSP為核心處理器,采用Mel頻率倒譜參數為語音特征,基于改進的DTW算法進行模式匹配,算法本身計算量小、速度快、識別率高,能夠進行實時語音識別。此系統平臺具有良好的實用性和穩定性,經實驗測試表明,系統的特征數據傳送穩定,壓縮編碼無明顯失真,識別率達到94%以上,對特定人其識別率可達97%,達到了識別的要求。為取得更好的識別效果,今后應進一步優化系統算法。由于比傳統鍵盤輸入操作具有更多的優勢,語音識別技術在未來的家居生活和商業應用會有更廣闊的應用前景。

參考文獻

[1]于志華.基于FPGA的實時固定語音識別系統研究與實現[D].信息工程大學,2013.

[2]斯蕓蕓.嵌入式語音識別系統的設計與實現[D].重慶大學,2012.

語音識別系統范文5

關鍵詞:長沙;地鐵;引導與識別;設計

地鐵是現代化交通與經濟發展的產物,高效而便捷。地鐵環境引導與識別系統扮演著疏導、指示、規范的角色,多方面配合協調地鐵的正常運營。目前,我省正處在精神文明和城市建設的飛速發展階段,對長沙市地鐵交通環境引導與識別系統進行設計探索,有利于改善省會城市標識設計現狀,也能跟上長沙城區總體規劃的發展步伐,美化城市。

1 長沙地鐵引導與識別系統設計現狀及問題

隨著中國城市化進程的加快,目前我國成了世界上城市軌道交通發展最快的國家。雖然在視覺傳達和環境設計等領域對相關引導與識別系統設計的研究比英美國家晚了許多,但如何創造跨越國界的地鐵標識符號,以及從材質、位置、外觀、文化、藝術等因素入手設計出能規范社會區域合理運行的標識是設計師一直關心的問題。

目前,長沙的軌道交通2號線一期工程已進入運營階段,地鐵的引導與識別系統有了初步建設。截至筆者發稿時,長沙地鐵的指示性和警示性引導與識別系統能在流動交通環境內滿足乘客乘車的基本需求,幫助乘客基本完成車站尋找、列車信息查詢、購票、檢票、乘車、車站服務設施尋找、出站線路尋找、車站周邊信息查詢等活動。同時,設備區的引導與識別系統、無障礙引導與識別系統、安全疏散引導與識別系統、服務性公共信息引導與識別系統以及行為引導與識別系統雖有建設但有待規范與完善。例如,可以增加“安全出口”或“緊急出口”的綠色標識在地鐵頂棚處懸掛或者緊貼地面展示,完善地鐵緊急事件中的安全系統,也應當統一服務性公共信息。例如,公安民警提示、緊急按鈕、洗手間、問詢、扶梯、電梯、電話、信息、存包、站務受理等,還可以增加“靠右站立”、“錄像監控中”等限制和約束引導人們行為與識別的系統提示。此外,長沙地鐵2號線剛投入正式運營,用來達到企業贏利目的的商業配套的引導與識別設計還不多。

鑒于與國內外優秀地鐵設計的差距,我們需要重視引導與識別系統設計的規范統一和創新,向國內外先進的地鐵設計學習。例如,學習倫敦地鐵的完善和舒適,學習巴黎地鐵的秩序與高效,學習莫斯科地鐵的裝飾與構思,學習東京地鐵的功能與視覺,學習南京地鐵的造型與科技,學習上海地鐵的簡潔與現代,學習香港地鐵的色彩與經驗。

2 長沙地鐵引導與識別系統設計的策略探討

2.1 依據信息傳播的功能與特點開展設計

人類視覺認知有自己的特點,常常主動接受信息,包括信息提示牌、線路圖、指示符號類的視覺傳播信息和其他聽覺傳播信息。首先,從視覺信息的傳播角度安排好信息密集區的信息傳播秩序與層次。同一位置的廣告和設施設置不能干擾過多,不能影響重要導向信息的傳達。其次,在人們接收信息傳達的關鍵點上落實系統信息設計。例如,在地鐵空間中易發生識別或引導障礙的關鍵點設置信息,因地制宜,使墻面、天花、地面、立柱、空間形態等信息傳播的載體充分發揮作用。再次,還原信息傳播系統的易理解性,包括地鐵信息傳遞的互逆性和識別系統的國際性。乘客進站與出站的行為互逆,其引導與識別系統設計要周全。為方便外國人夠理解地鐵信息系統所傳播的信息,必要時可考慮選擇兩種以上的語言或使用圖示表達。此外,重視信息傳播的準確性和多元化。語言傳播要清晰簡潔、準確適時;充分利用電視顯示系統,線路查詢系統,語言播報系統;有效利用攝影、影視導向,POP導向以及多媒體動態影像系統等各種載體傳達信息。

2.2 依據視覺傳達的要素和方法探討設計

地鐵交通引導與識別系統能迅速引導與規范人們的交通行為,讓地鐵運營井然有序,即屬于公共交通引導與識別系統也屬于視覺傳達設計的范疇,是現代城市規劃設計中不可忽視的部分。

(1)注重地鐵引導與識別圖示設計的簡潔。1933年,英國設計家亨利?貝克(Henryc.Beck)設計的倫敦地鐵線路系統奠定了現代交通引導與識別版面設計的基礎。該地鐵擁有簡化直觀的線路指示,在圖示上變革,把站點和線路簡化成圓圈和直線,使乘客一目了然。我們在學習和借鑒運用中,盡量用具象圖形并且不濫用錯用圖形,因為在地鐵空間這樣的環境中各個層次的乘客都有,而抽象圖形要求信息收受者具備一定的文化知識背景,所以抽象圖形不適合大面積使用。

(2)加強地鐵引導與識別字體的規范與創新。設計能否有效傳達信息,字體的選擇很關鍵。為確保視覺傳達內容的瞬間識別與準確判斷,首先,要保證引導與識別字體的規范。倫敦地鐵的字體設計師愛德華?瓊斯頓創造的“鐵路體”是世界上第一個在正式公共場所應用的無裝飾線字體,清晰、明確、規范統一,后來設計師們依次開發出適合留出大面積空白且筆畫寬窄不同的新字體,它們在現代反光材料的襯托下作為標牌在夜間更易識別。在我國,仿宋體字和老宋體字在遠觀或高速閱讀的情況下,與同樣大小的黑體字相比,筆畫過細易產生錯覺而不占優勢。因此,在注重對字體本身結構的研究、選擇和改造之外,設計者也要認真研究不同字體在黑字白底和白底黑字兩種情況下人們閱讀時的反應時間以及人們閱讀的適宜距離。此外,還要合理考慮字體黑白使用所帶來的視覺感受。通常,深色圖白色字比白色圖深色字更具擴張感,傳達信息時字體比例要嚴格設計。采用燈光照明時,引導與識別字體中明度和鮮艷度高的字體透光性比較強。這些方法都可以成為長沙地鐵引導與識別系統設計的依據和改良點。例如,長沙地鐵橘子洲青蓮站點關于廉政主題的黑白廣告宣傳字體的大小和視覺感受就有待改觀。

(3)重視地鐵線路主體色彩以及線網色彩的模塊化設計。目前,長沙地鐵的指示性與引導標識以黑色和藍色為主,依據《長沙市軌道交通客運服務標識系統設計規范及應用導則》中的設計方法,將來地鐵線路增多后,市民可以憑標識中的顏色快速辨識線路。在導向標識上,12條地鐵將分別由12種主體顏色來表示。地鐵線網圖中將會有鮮明的線路色彩,但要遵循冷暖色穿插的原則進行模塊化設計,避免出現色彩繁雜、含義混淆等情況。

2.3 運用心理學的影響改良設計

(1)利用環境心理、設計心理、知覺心理指導地鐵引導與識別系統設計。地鐵交通環境引導與識別系統的設計是以“人”與“環境”為研究內容的,我們了解心理學有助于正確分析該系統設計。其中,環境心理學強調和關注人們對環境的影響與反應;設計心理學關注人們在設計創造過程中的心態和心理反應,也關注如何使設計才能反映和滿足人們的心理;在設計領域中,視覺知覺是心理學和視覺傳達設計共同的研究方向。通常人們的短期記憶有限,必須借助信息鞏固記憶,而視覺知覺起到了支撐作用。例如,在地鐵引導與識別系統設計中采用約定成俗的符號加深人們的認知度,這既是視覺印象的積累也反映出知覺恒常性在設計中的作(下轉第頁)(上接第頁)用。

(2)重視行為心理對引導與識別系統設計的影響。地下空間封閉有限,環境的可識別性差,缺少參照物時,人們更易失去方向感。如何讓乘客在人流近乎跑動的瞬間,有效地充分注意引導與識別系統并獲得有價值的信息是設計師應該重點考慮的問題。因此,在設計時需要重視人們的行為心理和感受。首先,認真考慮引導與識別系統和空間的尺度比例關系,把握好主次、節奏,通過諸如空間分割,景點分配,標志導語等安排觀眾動線。如果引導與識別系統流向、流動性不好,會增加人們的焦慮感和不安全感。其次,充分利用墻面、天花、地面等動態空間引導與識別,強調造型、色彩、燈光照明等方面的變化給人們的行為暗示。例如,長沙地鐵橘子洲青蓮站點利用墻面的質感、色彩、肌理、圖案變化等傳達政務和文化信息比較有特色,既體現了文化特點,又增加了人們的空間心理趣味感。此外,還可以多播放一些廣告、影視和音樂,打破地下空間消沉感,克服沒有光照以及溫濕度的差異情況下人產生的不良生理反應和感覺。

語音識別系統范文6

關鍵詞: 語音識別; 識別原理; 聲學建模方法; 多維模式識別系統

中圖分類號: TN912.3?34 文獻標識碼: A 文章編號: 1004?373X(2013)13?0043?03

Summary of speech recognition technology and its application

YU Lin?lin

(Naval Aviation Military Representative Office Stationed in Beijing, Beijing 100041, China)

Abstract: As a key technology of human?computer interface in information technology, speech recognition has great research significance and broad application value. the development history of speech recognition technology is introduced, the basic knowledge of speech recognition is expounded, such as concept, basic principle, the acoustic modeling approach. The application of speech recognition technology in various fields are briefly introduced.

Keywords: speech recognition; recognition principle; acoustic modeling approach; multi?dimension pattern recognition system

0 引 言

語言是人類相互交流最常用、最有效、最重要和最方便的通信形式,語音是語言的聲學表現,與機器進行語音交流是人類一直以來的夢想。隨著計算機技術的飛速發展,語音識別技術也取得突破性的成就,人與機器用自然語言進行對話的夢想逐步接近實現。語音識別技術的應用范圍極為廣泛,不僅涉及到日常生活的方方面面,在軍事領域也發揮著極其重要的作用。它是信息社會朝著智能化和自動化發展的關鍵技術,使人們對信息的處理和獲取更加便捷,從而提高人們的工作效率。

1 語音識別技術的發展

語音識別技術起始于20世紀50年代。這一時期,語音識別的研究主要集中在對元音、輔音、數字以及孤立詞的識別。

20世紀60年代,語音識別研究取得實質性進展。線性預測分析和動態規劃的提出較好地解決了語音信號模型的產生和語音信號不等長兩個問題,并通過語音信號的線性預測編碼,有效地解決了語音信號的特征提取。

20世紀70年代,語音識別技術取得突破性進展?;趧討B規劃的動態時間規整(Dynamic Time Warping, DTW)技術基本成熟,特別提出了矢量量化(Vector Quantization,VQ)和隱馬爾可夫模型(Hidden Markov Model,HMM)理論[1]。

20世紀80年代,語音識別任務開始從孤立詞、連接詞的識別轉向大詞匯量、非特定人、連續語音的識別,識別算法也從傳統的基于標準模板匹配的方法轉向基于統計模型的方法。在聲學模型方面,由于HMM能夠很好的描述語音時變性和平穩性,開始被廣泛應用于大詞匯量連續語音識別(Large Vocabulary Continous Speech Recognition, LVCSR)的聲學建模[2?3];在語言模型方面,以N元文法為代表的統計語言模型開始廣泛應用于語音識別系統[4]。在這一階段,基于HMM/VQ、HMM/高斯混合模型、HMM/人工神經網絡的語音建模方法開始廣泛應用于LVCSR系統,語音識別技術取得新突破。

20世紀90年代以后,伴隨著語音識別系統走向實用化,語音識別在細化模型的設計、參數提取和優化、系統的自適應方面取得較大進展[5]。同時,人們更多地關注話者自適應、聽覺模型、快速搜索識別算法以及進一步的語言模型的研究等課題[6]。此外,語音識別技術開始與其他領域相關技術進行結合,以提高識別的準確率,便于實現語音識別技術的產品化。

2 語音識別基礎

2.1 語音識別概念

語音識別是將人類的聲音信號轉化為文字或者指令的過程[7]。語音識別以語音為研究對象,它是語音信號處理的一個重要研究方向,是模式識別的一個分支。語音識別的研究涉及微機技術、人工智能、數字信號處理、模式識別、聲學、語言學和認知科學等許多學科領域,是一個多學科綜合性研究領域[8]。

根據在不同限制條件下的研究任務,產生了不同的研究領域。這些領域包括:根據對說話人說話方式的要求,可分為孤立字(詞)、連接詞和連續語音識別系統;根據對說話人的依賴程度,可分為特定人和非特定人語音識別系統;根據詞匯量的大小,可分為小詞匯量、中等詞匯量、大詞匯量以及無限詞匯量語音識別系統。

2.2 語音識別基本原理

從語音識別模型的角度講,主流的語音識別系統理論是建立在統計模式識別基礎之上的。語音識別的目標是利用語音學與語言學信息,把輸入的語音特征向量序列[X=x1,x2,…,xT]轉化成詞序列[W=w1,w2,…,wN]并輸出?;谧畲蠛篁灨怕实恼Z音識別模型如下式所示:

[W=argmaxW{P(W|X)}=argmaxWP(W|X)P(W)P(X)=argmaxW{P(X|W)P(W)}=argmaxW{logP(X|W)+λlogP(W)}]

上式表明,要尋找的最可能的詞序列[W],應該使[P(X|W)]與[P(W)]的乘積達到最大。其中,[P(X|W)]是特征矢量序列[X]在給定[W]條件下的條件概率,由聲學模型決定。[P(W)]是[W]獨立于語音特征矢量的先驗概率,由語言模型決定。由于將概率取對數不影響[W]的選取,第四個等式成立。[logP(X|W)]與[logP(W)]分別表示聲學得分與語言得分,且分別通過聲學模型與語言模型計算得到。[λ]是平衡聲學模型與語言模型的權重。從語音識別系統構成的角度講,一個完整的語音識別系統包括特征提取、聲學模型、語言模型、搜索算法等模塊。語音識別系統本質上是一種多維模式識別系統,對于不同的語音識別系統,人們所采用的具體識別方法及技術不同,但其基本原理都是相同的,即將采集到的語音信號送到特征提取模塊處理,將所得到的語音特征參數送入模型庫模塊,由聲音模式匹配模塊根據模型庫對該段語音進行識別,最后得出識別結果[9]。

語音識別系統基本原理框圖如圖1所示,其中:預處理模塊濾除原始語音信號中的次要信息及背景噪音等,包括抗混疊濾波、預加重、模/數轉換、自動增益控制等處理過程,將語音信號數字化;特征提取模塊對語音的聲學參數進行分析后提取出語音特征參數,形成特征矢量序列。語音識別系統常用的特征參數有短時平均幅度、短時平均能量、線性預測編碼系數、短時頻譜等。特征提取和選擇是構建系統的關鍵,對識別效果極為重要。

圖1 語音識別基本原理框圖

由于語音信號本質上屬于非平穩信號,目前對語音信號的分析是建立在短時平穩性假設之上的。在對語音信號作短時平穩假設后,通過對語音信號進行加窗,實現短時語音片段上的特征提取。這些短時片段被稱為幀,以幀為單位的特征序列構成語音識別系統的輸入。由于梅爾倒譜系數及感知線性預測系數能夠從人耳聽覺特性的角度準確刻畫語音信號,已經成為目前主流的語音特征。為補償幀間獨立性假設,人們在使用梅爾倒譜系數及感知線性預測系數時,通常加上它們的一階、二階差分,以引入信號特征的動態特征。

聲學模型是語音識別系統中最為重要的部分之一。聲學建模涉及建模單元選取、模型狀態聚類、模型參數估計等很多方面。在目前的LVCSR系統中,普遍采用上下文相關的模型作為基本建模單元,以刻畫連續語音的協同發音現象。在考慮了語境的影響后,聲學模型的數量急劇增加,LVCSR系統通常采用狀態聚類的方法壓縮聲學參數的數量,以簡化模型的訓練。在訓練過程中,系統對若干次訓練語音進行預處理,并通過特征提取得到特征矢量序列,然后由特征建模模塊建立訓練語音的參考模式庫。

搜索是在指定的空間當中,按照一定的優化準則,尋找最優詞序列的過程。搜索的本質是問題求解,廣泛應用于語音識別、機器翻譯等人工智能和模式識別的各個領域。它通過利用已掌握的知識(聲學知識、語音學知識、詞典知識、語言模型知識等),在狀態(從高層至底層依次為詞、聲學模型、HMM狀態)空間中找到最優的狀態序列。最終的詞序列是對輸入的語音信號在一定準則下的一個最優描述。在識別階段,將輸入語音的特征矢量參數同訓練得到的參考模板庫中的模式進行相似性度量比較,將相似度最高的模式所屬的類別作為識別中間候選結果輸出。為了提高識別的正確率,在后處理模塊中對上述得到的候選識別結果繼續處理,包括通過Lattice重打分融合更高元的語言模型、通過置信度度量得到識別結果的可靠程度等。最終通過增加約束,得到更可靠的識別結果。

2.3 聲學建模方法

常用的聲學建模方法包含以下三種:基于模式匹配的動態時間規整法(DTW);隱馬爾可夫模型法(HMM);基于人工神經網絡識別法(ANN)等。

DTW 是較早的一種模式匹配的方法。它基于動態規劃的思想,解決孤立詞語音識別中的語音信號特征參數序列比較時長度不一的模板匹配問題。在實際應用中,DTW通過計算已預處理和分幀的語音信號與參考模板之間的相似度,再按照某種距離測度計算出模板間的相似度并選擇最佳路徑。

HMM是對語音信號的時間序列結構所建立的統計模型,是在馬爾可夫鏈的基礎上發展起來的,它是一種基于參數模型的統計識別方法。HMM可模仿人的言語過程,可視作一個雙重隨機過程:一個是用具有有限狀態數的馬爾可夫鏈來模擬語音信號統計特性變化的隱含的隨機過程,另一個是與馬爾可夫鏈的每一個狀態相關聯的觀測序列的隨機過程[10]。

ANN以數學模型模擬神經元活動,將人工神經網絡中大量神經元并行分布運算的原理、高效的學習算法以及對人的認知系統的模仿能力充分運用到語音識別領域,并結合神經網絡和隱含馬爾可夫模型的識別算法,克服了ANN在描述語音信號時間動態特性方面的缺點,進一步提高了語音識別的魯棒性和準確率。其中成功的方法就是在混合模型中用ANN替代高斯混合模型估計音素或狀態的后驗概率。2011年,微軟以深度神經網絡替代多層感知機形成的混合模型系統大大提高了語音識別的準確率。

3 語音識別的應用

語音識別技術有著非常廣泛的應用領域和市場前景。在語音輸入控制系統中,它使得人們可以甩掉鍵盤,通過識別語音中的要求、請求、命令或詢問來作出正確的響應,這樣既可以克服人工鍵盤輸入速度慢,極易出差錯的缺點,又有利于縮短系統的反應時間,使人機交流變得簡便易行,比如用于聲控語音撥號系統、聲控智能玩具、智能家電等領域。在智能對話查詢系統中,人們通過語音命令,可以方便地從遠端的數據庫系統中查詢與提取有關信息,享受自然、友好的數據庫檢索服務,例如信息網絡查詢、醫療服務、銀行服務等。語音識別技術還可以應用于自動口語翻譯,即通過將口語識別技術、機器翻譯技術、語音合成技術等相結合,可將一種語言的語音輸入翻譯為另一種語言的語音輸出,實現跨語言交流[11]。

語音識別技術在軍事斗爭領域里也有著極為重要的應用價值和極其廣闊的應用空間。一些語音識別技術就是著眼于軍事活動而研發,并在軍事領域首先應用、首獲成效的,軍事應用對語音識別系統的識別精度、響應時間、惡劣環境下的頑健性都提出了更高的要求。目前,語音識別技術已在軍事指揮和控制自動化方面得以應用。比如,將語音識別技術應用于航空飛行控制,可快速提高作戰效率和減輕飛行員的工作負擔,飛行員利用語音輸入來代替傳統的手動操作和控制各種開關和設備,以及重新改編或排列顯示器上的顯示信息等,可使飛行員把時間和精力集中于對攻擊目標的判斷和完成其他操作上來,以便更快獲得信息來發揮戰術優勢。

4 結 語

語音識別的研究工作對于信息化社會的發展,人們生活水平的提高等方面有著深遠的意義。隨著計算機信息技術的不斷發展,語音識別技術將取得更多重大突破,語音識別系統的研究將會更加深入,有著更加廣闊的發展空間。

參考文獻

[1] 馬志欣,王宏,李鑫.語音識別技術綜述[J].昌吉學院學報,2006(3):93?97.

[2] RABINER L R, JUANG B H. An introduction to hidden Markov models [J]. IEEE ASSP Magazine, 1986, 3(1): 4?16.

[3] GALES M, YOUNG S. The application of hidden Markov models in speech recognition [J]. Foundations and Trends in Signal Processing, 2008, 1(3): 195?304.

[4] JELINEK F. Continuous speech recognition by statistical methods [J]. Proceedings of the IEEE, 1976, 64(4): 532?556.

[5] 倪崇嘉,劉文舉,徐波.漢語大詞匯量連續語音識別系統研究進展[J].中文信息學報,2009,23(1):112?123.

[6] 顧亞強.非特定人語音識別關鍵技術研究[D].長沙:國防科學技術大學,2009.

[7] 中華人民共和國國家質量監督檢驗檢疫總局.GB/T21023?2007 中文語音識別系統通用技術規范[S].北京:中國標準出版社,2007.

[8] 王文慧.基于ARM的嵌入式語音識別系統研究[D].天津:天津大學,2008.

[9] 何湘智.語音識別的研究與發展[J].計算機與現代化,2002(3):3?6.

主站蜘蛛池模板: 国产成人a∨麻豆精品| 国产成人片无码免费视频| 免费国精产品wnw2544| 国产欧美国产精品第一区| 女人夜夜春精品a片| 亚洲成av人不卡无码影片| 国产a国产片国产| 亚洲成aⅴ人片久青草影院按摩| 无码精品一区二区三区在线| 国产精品日日做人人爱| 久久中文字幕人妻熟av女蜜柚m| 情侣作爱视频网站| 18禁黄网站禁片免费观看| 99尹人香蕉国产免费天天| 国产免费看又黄又大又污的胸| 无码av不卡一区二区三区| 日本饥渴人妻欲求不满| 欧美牲交a欧美牲交aⅴ另类| 97国产精华最好的产品亚洲| 欧美黑人又大又粗xxxxx| 在线观看高h无码黄动漫| 亚洲av无码男人的天堂在线| 一本精品99久久精品77| 亚洲欧美日韩中文字幕在线一区| 日韩一区二区三区无码影院| 国产亚洲精品a在线看| 性做久久久久久免费观看| 一本到在线观看视频| 亚洲精品综合第一国产综合| 男人边吃奶边做呻吟免费视频| 国产成人精品男人的天堂网站| 国产欧美va天堂在线观看视频| 国产精品亚洲аv无码播放| 国产成人无码免费网站| 亚洲成av人影院在线观看| 色悠久久久久综合网香蕉| 久久精品国产亚洲av品善| 加勒比色老久久综合网| 娇妻在交换中哭喊着高潮| 国产欧美日韩精品a在线观看| 欧美性猛交xxxx富婆|