<fieldset id="8aqek"><input id="8aqek"></input></fieldset>
    <tfoot id="8aqek"><rt id="8aqek"></rt></tfoot>
    <abbr id="8aqek"></abbr>
  • <ul id="8aqek"></ul>
    <strike id="8aqek"></strike>
  • <strike id="8aqek"><input id="8aqek"></input></strike>
  • <ul id="8aqek"><sup id="8aqek"></sup></ul>
    中媒聯動☆傳媒聯盟 2014-04-16 重要通知與聲明  2020年精選20個創業好項目——期待與您早日聯手合作共贏  僅需5.8萬元就可通過CCTV點睛播出1個月和通過GJTV等百家媒體聯合常年展播  評選與出版《當代百名書畫藝術名家抗疫作品展》的活動通知 五秒電視廣告只需五十元☆本項目正在誠征各地代理 點此查看加盟合作☆本站人才招聘公告  
    當前位置: 主頁 > 人物 >

    CSDN 特邀 AI 專家李秀林:方興未艾的語音合成技術與應用

    時間:2018-10-17 14:45 來源:中國焦點作者:中國焦點
    .

    [ 導讀 ]讓機器開口說話,則是人類千百年來的夢想。

      “本文為標貝科技聯合創始人CTO 李秀林 為 11 月 8 日 CSDN AI科技大本營即將發布的《2018-2019 中國人工智能產業路線圖》V2.0 版白皮書的專家約稿。版權為CSDN與標貝科技共同所有。

      應CSDN邀請,李秀林博士將在2018 AI開發者大會上就關于語音超市的實踐做專題演講,敬請期待!一、語音合成技術簡介

      語音,在人類的發展過程中,起到了巨大的作用。語音是語言的外部形式,是最直接地記錄人的思維活動的符號體系,也是人類賴以生存發展和從事各種社會活動最基本、最重要的交流方式之一。而讓機器開口說話,則是人類千百年來的夢想。語音合成(TextTo Speech),是人類不斷探索、實現這一夢想的科學實踐,也是受到這一夢想不斷推動、不斷提升的技術領域。

      在漫長的探索過程中,真正產生實用意義的合成系統,產生于20世紀70年代。受益于計算機技術和信號處理技術的發展,第一代參數合成系統--共振峰合成系統誕生了。它利用不同發音的共振峰信息,可以實現可懂的語音合成效果,但整體音質方面,還難以滿足商用的要求。

      進入90年代,存儲技術得到了長足發展,從而誕生了拼接合成系統。拼接合成系統,利用PSOLA算法,將存儲的原始發音片段進行調整后拼接起來,從而實現了相較于共振峰參數合成效果更好的音質。

      之后,語音合成技術不斷向前發展,參數合成、拼接合成兩條主要的技術路線都取得了長足進展,相互競爭、相互促進,使得合成語音的質量大幅提升,語音合成技術在眾多場景中得以應用。整體上看,主要包括如下幾個方面:

      1、從規則驅動轉向數據驅動:在早期的系統中,大多需要大量的專家知識,對發音或者聲學參數進行調整,不但費時費力,而且難以滿足對不同上下文的覆蓋,也在一定程度上影響技術的實施。隨著技術的發展,越來越多的數據得以應用到系統中, 以語音合成音庫為例,從最初的幾百句話,發展到后來的幾千、幾萬句規模,使得發音樣本數量大大增加,基于統計模型的技術得以廣泛應用。從最初的樹模型、隱馬爾可夫模型、高斯混合模型,到近幾年的神經網絡模型,大大提升了語音合成系統對語音的描述能力。

      1.不斷提升的可懂且舒適的合成效果:語音合成系統的合成效果評價,一般是通過主觀評測實驗,利用多個參試人員對多個語音樣本進行打分。如果語音樣本來自不同的系統,則稱為對比評測。為了提升語音的音質,參數合成系統中先后采用過LPC合成器、STRAIGHT合成器、以wavenet為代表的神經網絡聲碼器等;拼接合成系統中則采用不斷擴大音庫規模、改善上下文覆蓋的策略,都取得了明顯的效果。在理想情況下,用戶希望語音合成的語音,能夠以假亂真,達到真人發音水平。隨著技術的不斷發展,這一目標已經越來越近。在一種極端情況下,一組樣本來自合成系統,一組樣本來自真人發音,那么所做的對比評測,即可視為語音合成系統的圖靈測試。如果用戶無法準確分辨哪些語音樣本是機器生成的,哪些是人類產生的,那么就可以認為這一合成系統通過了圖靈測試。

      2.文本處理能力不斷增強:人類在朗讀文本時,實際上是有一個理解的過程。要想讓機器也能較好地朗讀,這個理解過程必不可少。在語音合成系統中,一般會包括一個文本處理的前端,對輸入文本進行數字、符號的處理,分詞斷句,以及多音字處理等一系列環節。通過利用海量的文本數據和統計模型技術,合成系統中文本處理的水平已經可以滿足大多數場景下的商業應用要求。更進一步地,自然語言理解技術,還可以用于預測句子的焦點、情緒、語氣語調等,但由于這部分受上下文的影響很大,而這類數據又相對較少,所以目前這部分情感相關的技術還不夠成熟。

    圖1. 語音合成系統框圖

      以上,是語音合成技術的發展概況。接下來,我們來探討一下最近幾年深度學習技術對合成技術發展的影響。二、深度學習與語音合成

      深度學習技術,對語音合成的影響,主要分為兩個階段:

      第一階段:錦上添花。從2012年開始,深度學習技術在語音領域逐漸開始受到關注并得以應用。這一階段,深度學習技術的主要作用,是替換原有的統計模型,提升模型的刻畫能力。比如用DNN替代時長模型,用RNN替代聲學參數模型等。語音的生成部分,仍然是利用拼接合成或者聲碼器合成的方式,與此前的系統沒有本質差異。對比兩種系統發現,在仔細對比的情況下,替代后的系統的效果略好于原系統,但整體感覺差異不大,未能產生質的飛躍。

      第二階段:另辟蹊徑。這一階段的很多研究工作,都具有開創性,是對語音合成的重大創新。2016年,一篇具有標志性的文章發表,提出了WaveNet方案。2017年初,另一篇標志性的文章發表,提出了端到端的Tacotron方案。2018年初,Tacotron2將兩者進行了融合,形成了目前語音合成領域的標桿性系統。在此過程中,也有DeepVoice,SampleRNN, Char2Wav等很多有價值的研究文獻陸續發表,大大促進了語音合成技術的發展,吸引了越來越多的研究者參與其中。

    圖2. WaveNet中的帶洞卷積結構

      WaveNet是受到PixelRNN的啟發,將自回歸模型應用于時域波形生成的成功嘗試。利用WaveNet生成的語音,在音質上大大超越了之前的參數合成效果,甚至合成的某些句子,能夠到達以假亂真的水平,引起了巨大的轟動。其中,所采用的帶洞卷積(dilatedconvolution)大大提升了感受野,以滿足對高采樣率的音頻時域信號建模的要求。WaveNet的優點非常明顯,但由于其利用前N-1個樣本預測第N個樣本,所以效率非常低,這也是WaveNet的一個明顯缺點。后來提出的ParallelWaveNet和ClariNet,都是為了解決這個問題,思路是利用神經網絡提煉技術,用預先訓練好的WaveNet模型(teacher)來訓練可并行計算的IAF模型(student),從而實現實時合成,同時保持近乎自然語音的高音質。

      Tacotron是端到端語音合成系統的代表,與以往的合成系統不同,端到端合成系統,可以直接利用錄音文本和對應的語音數據對,進行模型訓練,而無需過多的專家知識和專業處理能力,大大降低了進入語音合成領域的門檻,為語音合成的快速發展提供了新的催化劑。

    圖3. Tacotron的端到端網絡結構

      Tacotron把文本符號作為輸入,把幅度譜作為輸出,然后通過Griffin-Lim進行信號重建,輸出高質量的語音。Tacotron的核心結構是帶有注意力機制的encoder-decoder模型,是一種典型的seq2seq結構。這種結構,不再需要對語音和文本的局部對應關系進行單獨處理,極大地降低了對訓練數據的處理難度。由于Tacotron模型比較復雜,可以充分利用模型的參數和注意力機制,對序列進行更精細地刻畫,以提升合成語音的表現力。相較于WaveNet模型的逐采樣點建模,Tacotron模型是逐幀建模,合成效率得以大幅提升,有一定的產品化潛力,但合成音質比WaveNet有所降低。

      Tacotron2是基于Tacotron和WaveNet進行融合的自然結果,既充分利用了端到端的合成框架,又利用了高音質的語音生成算法。在這一框架中,采用與Tacotron類似的結構,用于生成Mel譜,作為WaveNet的輸入,而WaveNet則退化成神經網絡聲碼器,兩者共同組成了一個端到端的高音質系統。

    圖4. Tacotron2 的網絡結構三、語音合成的應用

      語音合成技術,已經成功應用在很多領域,包括語音導航、信息播報等。對于語音合成的應用前景,標貝科技有著自己的看法。因為標貝科技既是語音數據服務商,同時也是語音合成整體解決方案提供商,所以對于語音合成的應用前景,也做過很多思考。目前語音合成的聲音,從合成效果上,已經可以滿足大多數用戶的需求,但是從音色選擇上,還不夠豐富;從發音方式上,還是偏單調。針對這種情況,標貝科技推出了“聲音超市”,為合作伙伴提供了一個可供選擇的,所聽即所得的聲音平臺。我們認為,語音合成會以更貼近場景需求的合成效果,在如下的三大場景中得以廣泛應用:語音交互、閱讀教育、泛娛樂。

      1.語音交互

      近年來,隨著人工智能概念的推廣,語音交互成為了一個熱點,智能助手、智能客服等應用層出不窮。語音交互中,主要有三個關鍵技術,語音識別、語音合成和語義理解,語音合成在其中的作用顯而易見。受限于語義理解的技術發展水平,目前的應用主要是聚焦于不同的垂直領域,用于解決某些特定領域的問題,還存在一定的局限性。

      2.閱讀教育

      閱讀是一個長期且廣泛的需求,我們每天都需要通過閱讀獲取大量的信息,既有碎片化的信息獲取,也有深度閱讀;既包括新聞、朋友圈、博文,也包括小說、名著;有的是為了與社會同步,有的是消磨時光,有的是為了提升自我修養。在這種多維度的信息需求當中,語音合成技術提供了一種“簡單”的方式,一種可以“并行”輸入的方式,同時也是一種“廉價”的方式。相較于傳統的閱讀,自有其優勢。在開車時、散步時、鍛煉時,都可以輕松獲取信息。

      在教育方面,尤其是語言教育方面,模仿與交互是必不可少的鍛煉方式。目前的教育方式中,想學到標準的發音,是需要大量的成本的,比如各種課外班,甚至一對一教育。隨著語音合成技術的不斷進步,以假亂真的合成效果,一方面可以大大增加有聲教育素材,另一方面,甚至可以部分取代真人對話的教育內容。

      3.泛娛樂

      泛娛樂是之前與語音合成交叉較少的場景,但我們認為這恰恰是一個巨大的有待開發的市場。我們已經擁有豐富的聲音IP資源,并且可以通過聲音超市進行展示,供大家選購自己喜歡的聲音。這些都是為了將語音合成技術廣泛應用到泛娛樂領域所做的準備。以配音領域為例,利用語音合成技術,可以大大降低配音的成本和周期;以目前火爆的短視頻為例,利用語音合成技術可以非常容易地為自己的視頻配上有趣的聲音來展現內容;以虛擬主持人為例,利用語音合成技術,可以提升信息的時效性,同時大大緩解主持人的工作壓力,降低其工作強度。

      總之,隨著語音合成技術的快速發展,所生成的語音會越來越自然生動,也會越來越有情感表現力。我們堅信,技術的進步,會不斷沖破原有的障礙,滿足越來越多的用戶需求,使得更好的應用不斷涌現,實現用聲音改變生活的美好愿景!

    (責任編輯:海諾)
    頂一下
    (0)
    0%
    踩一下
    (0)
    0%
    ------分隔線----------------------------
    織夢二維碼生成器

    影視聯盟  紙媒聯盟  網絡聯盟   律師聯盟  人員查詢  加盟合作  最新最熱

    特別申明

    部分內容源于網絡 目的在于傳播 如有侵權速聯秒刪

     


    主站蜘蛛池模板: 久久精品国产亚洲av日韩| 久久水蜜桃亚洲av无码精品麻豆 | 久久久久国产精品三级网| 精品亚洲aⅴ在线观看| 久久99热这里只有精品国产 | 中文字幕精品一区二区三区视频| 午夜精品久视频在线观看| 亚洲av成人无码久久精品| 久久99亚洲综合精品首页| 欧美国产日韩精品| 国产精品无码久久久久久| 伊人 久久 精品| 欧美精品xxxxbbbb| 精品久人妻去按摩店被黑人按中出| 欧洲精品视频在线观看 | 精品国产污污免费网站入口在线| 99国产精品久久久久久久成人热| 奇米精品视频一区二区三区| 欧美精品亚洲精品日韩专区| 国产精品成人69XXX免费视频| 国产精品欧美日韩| 99精品全国免费观看视频..| 久久精品亚洲一区二区三区浴池| 亚洲精品国产V片在线观看| 久草欧美精品在线观看| 国产麻豆精品入口在线观看 | 成人精品在线视频| 国精无码欧精品亚洲一区| 亚洲AV日韩精品久久久久| 亚洲情侣偷拍精品| 四虎永久在线精品免费一区二区| 成人午夜精品视频在线观看 | 国产AV国片精品| 国产精品污WWW在线观看| 亚洲AV成人精品网站在线播放 | 久久无码精品一区二区三区| 国产精品久久久久乳精品爆| 亚洲国产精品热久久| 99精品人妻少妇一区二区| 99精品欧美一区二区三区| 国产亚洲精品激情都市|