近日,捷通華聲公司自主研發(fā)的聲紋識別(VPR)技術正式掛接靈云平臺(hcicloud.com),靈云聲紋識別(VPR)支持身份辨識和身份認證,識別率達到99%,用戶僅需要最少輸入5句,每句5秒的音頻文件即可生成個人的專有身份標識。相較于其他生物特征識別技術,聲紋識別技術具有獲取方便、成本低廉、使用簡單、支持遠程身份確認、算法復雜度低等優(yōu)勢。
至此,靈云平臺智能語音技術形成了以語音識別、語音合成、聲紋識別、自然語言理解四大核心技術組成的完整的智能語音技術生態(tài)閉環(huán)??梢詾閺V大企業(yè)、及移動開發(fā)者提供等更加全面的智能語音交互技術服務。

每個人聲音都是特有的,就像指紋、DNA一樣,具有唯一性。聲音也能作為身份的一種驗證方式,利用聲音對身份進行驗證的技術就是聲紋識別技術。聲紋識別技術是生物識別技術的一種。也稱為說話人識別,有兩類,即說話人辨認和說話人確認。聲紋識別技術具有獲取方便、成本低廉、使用簡單、支持遠程身份確認、算法復雜度低等優(yōu)勢。聲紋識別的應用越來越收到系統(tǒng)開發(fā)者和用戶青睞,聲紋識別的世界市場占有率15.8%,僅次于指紋和掌紋的生物特征識別,并有不斷上升的趨勢。
靈云智能語音 打造語音交互一站式體驗
伴隨著智能語音應用的不斷深入和信息安全形勢的日益嚴峻,語音信息安全的重要性也日益凸顯,已成為政府和業(yè)界關注的焦點。捷通華聲聯(lián)合清華大學共同研發(fā)的靈云聲紋識別技術能夠很好的解決這一問題,靈云聲紋識別技術可以為廣大企業(yè)、組織以及開發(fā)者在銀行、電信、安防、移動支付等領域提供一站式的智能語音交互和語音身份鑒定技術服務。
捷通華聲 中國智能語音領軍企業(yè)
捷通華聲公司是國內最早從事人工智能技術研究與應用技術研究的企業(yè)之一。捷通華聲靈云語音識別(ASR)電話端和手機端準確率均達到國內領先水平;捷通華聲靈云多語種語音合成(TTS)支持的語言已達19種,覆蓋了全球90%以上的國家和地區(qū)。同時,捷通華聲也是全球唯一一家擁有維吾爾語語音識別和語音合成技術能力的語音技術公司。
目前,捷通華聲擁有自主知識產權的靈云智能語音技術及產品在語音交互市場占有率已達到50%以上。今年九月,憑借在智能語音產業(yè)多年的深厚積淀和前瞻性的智能人機交互能力,捷通華聲在“第六屆中國行業(yè)信息化獎項評選活動”上一舉奪得2014年度中國智能語音產業(yè)領軍企業(yè)大獎。
創(chuàng)建靈云 開啟人工智能云服務時代
捷通華聲公司不止是智能語音產業(yè)的領軍企業(yè),更是中國人工智能產業(yè)的開拓者和領導者。
2011年,捷通華聲推出全球第一個全方位人工智能開放平臺-靈云平臺。靈云人工智能開放平臺是一種可以用語音、手寫、拍照,手勢,將來甚至可使用腦波識別等智能手段來操作、感知手機、計算機等數(shù)字設備的網絡云服務,目標是讓人機交互像人與人溝通一樣的簡單自然。
2013年,捷通華聲結盟清華大學,共同創(chuàng)立“清華靈云人工智能研究中心”。清華人工智能研究中心由清華大學多名資深科學家及捷通華聲人工智能技術及應用專家共同組建,匯聚智能語音、智能圖像、自然語言理解、生物特征識別等人工智能技術及前沿研究課題。值得一提的是,此次推出的聲紋識別技術就是“清華靈云人工智能研究中心”結出的碩果之一。
靈云平臺的創(chuàng)建,打破了人工智能技術能力對硬件的高依賴度,標志著人工智能產業(yè)正式邁入云服務時代。成為中國乃至世界人工智能技術研究與應用的風向標。
靈云平臺自創(chuàng)建以來,靈云語音識別、語音合成等人工智能技術能力通過百度導航、搜狗導航、導航犬、嘀嘀打車、快的打車、漢字英雄、天行聽書、天行輸入法等“家喻戶曉”的經典應用服務中國13億社會大眾,使大眾群體充分感受并體驗到智能語音等人工智能技術為現(xiàn)代生活所帶來的輕松與便捷。
隨著人工時代的到來,人工智能產業(yè)將開啟一個萬億級別市場。人工智能產業(yè)必將造就無數(shù)個百億級企業(yè)。靈云作為國內唯一擁有全部聽說讀寫意以及生物特征識別人工智能能力的云服務平臺,靈云人工智能開放平臺面向移動互聯(lián)網免費提供語音合成(TTS)、語音識別(ASR)、手寫識別(HWR)、光學字符識別(OCR)以及自然語言理解(NLU)、機器翻譯MT、聲紋識別、人臉識別、指紋識別等多項人工智能能力,全方位賦予計算機思維和感官能力。助力移動互聯(lián)網創(chuàng)業(yè)者,快速推進智能生態(tài)鏈的戰(zhàn)略布局,為用戶打造具有全新體驗的智慧生活,讓更多人享受到全面人工智能產業(yè)變革帶給消費者的智慧便利生活。
更多信息,請訪問靈云人工智能開放平臺:http://www.hcicloud.com/