蘋果詳解HomePod遠場語音識別,為何機器學習是重點?
日前,蘋果的音頻軟件工程和Siri語音團隊在公司名下的《機器學習期刊》欄目中發布了一篇博文,詳細介紹了公司研究團隊對HomePod智能揚聲器上的Siri在遠場環境中工作的優化方法。
遠場語音識別是指在用戶在房間復雜的布局中離HomePod相對較遠的不同位置喚醒Siri,而實現該功能需要緊密地集成各種多通道信號處理技術以解決噪聲、混響、回聲等帶來的影響,相比在iPhone上工作,Siri在遠場環境中的工作原理更加復雜,技術上也存在更多的難點。
為了解決混響、噪聲和語音分離的問題,蘋果團隊使用了多個麥克風陣列和機器學習的方法:
1)基于掩模的多通道同步采集硬件利用深度學習進行算法研發和調優來消除回聲和背景噪聲;
2)有語音重疊的情況下,利用無監督學習分離聲源和基于音頻流選擇的語音喚醒消除干擾語音。
蘋果團隊搭建了一個系統,集成了監督式深度學習的模型和無監督在線學習的算法,能利用和處理多個麥克風信號,通過使用自上而下的知識為語音識別器從“Hey Siri”語音喚醒探測器中選擇最合適的音頻流。該團隊表示,遠場語音識別不斷增強的性能得益于深度學習。
蘋果在近幾年把機器學習作為其研發工作的重點,iPhone A12和iPad Pro A12X上的神經引擎使芯片的性能不僅比此前的蘋果設備搭載的芯片強大很多倍,同時也令其他競爭公司的SoC芯片遜色不少。
如今很多科技產品的營銷宣傳中都帶有“機器學習”一詞,以至令消費者覺得這是一個似乎沒有什么意義的泛用詞。相比之下,谷歌在這方面做得很好,經常利用博客讓其用戶與合作伙伴對機器學習有更深入的理解,顯然蘋果現在也在做同樣的事情。
就目前而言,亞馬遜和谷歌在數字助理技術方面處于市場領先地位。蘋果盡管也有語音助手Siri,但與這些競爭對手相比其背后使用的方法的是不一樣的,因此蘋果要追趕上亞馬遜和谷歌的步伐也并不容易。與用戶最相關的是,蘋果專注在本地計算機(用戶的、或應用程序、或功能開發人員的)執行機器學習的任務,而不是在云平臺。雖然蘋果Core ML API也允許開發人員在云外部的網絡中使用,安卓設備也可以進行本地處理(如照片),但這兩者的重點不同。
蘋果今年初推出的HomePod雖然具備出色的音質和Siri的即時響應,但該設備對Spotify支持的缺乏和不低的價格成為影響消費者選擇的掣肘,值得一提的是,蘋果在此前的季度收益報告中也未明確說明HomePod單獨的出貨量。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













