揭秘Siri,蘋果發布論文闡釋語音助手設計想法
就多任務處理、多語言識別等問題,蘋果在論文中給出了自己不同的想法。
最近,蘋果發布了一系列論文來闡釋語音助手的重要工作機理,公開揭秘Siri,向業界貢獻了自己在設計上的不同想法。

在第一篇論文中,蘋果就語音助手中的多任務處理問題進行了闡釋,它指出在Siri中,喚醒處理通常需要兩個步驟:AI首先必須確定輸入音頻中的語音內容是否與觸發短語的語音內容匹配(語音觸發檢測),然后必須確定說話者的語音是否與一個或多個注冊用戶的語音相匹配(說話者驗證)。一般方法是將兩項任務分別來處理,蘋果則認為可以用一個神經網絡模型同時解決兩項任務,同時它表示,經過驗證,該方法各方面性能可以達到預期。

在該論文中,研究人員給出了模型示例。他們在包含16000小時帶注釋樣本的數據集中訓練了基于兩種思路下設計的模型,其中5000小時的音頻帶有語音標簽,其余均只有揚聲器標簽。相比于一般訓練模型去獲取多個標簽的思路,蘋果通過將不同任務的訓練數據進行級聯來訓練多個相關任務的模型。結果發現,在性能表現相同的情況下,蘋果新提出的模型反而更適合應用,它能夠在兩個任務之間共享計算,大大節省了設備上的內存空間,同時計算時間或等待時間以及所消耗的電量/電池數量都將降低。
在另一篇論文中,蘋果還介紹了多語言演講場景的演講者識別系統設計——知識圖譜輔助聽寫系統決策。以聲學子模型為例,它可以基于語音信號傳輸痕跡來進行預測,并且其上下文感知的預測組件考慮了各種交互上下文信號,其中上下文信號包含有關發出命令的條件信息、已安裝的命令語言環境、當前選擇的命令語言環境以及用戶在發出請求之前是否切換命令語言環境的信息。
結果顯示,這一設計的優勢在于,它們可以在語音信號太短而無法通過聲學模型產生可靠預測的情況下提供幫助。
此外,蘋果還提出了一項補充研究,緩解錯誤觸發問題,即忽略不適合語音助手(Siri)的語音。基于圖結構設計AI模型的思路,研究人員提出了一種圖神經網絡(GNN),其中每個節點都與標簽相連。結果顯示,該模型減少了87%的錯誤觸發。
作者:Lynn
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
11月7日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯網行業年度評選
-
11月20日立即報名>> 【免費下載】RISC-V芯片發展現狀與測試挑戰-白皮書
-
即日-11.25立即下載>>> 費斯托白皮書《柔性:汽車生產未來的關鍵》
-
11月27日立即報名>> 【工程師系列】汽車電子技術在線大會
-
11月28日立即下載>> 【白皮書】精準洞察 無線掌控——283FC智能自檢萬用表
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯網產業大會


分享













