國網浙江省電力有限公司營銷服務中心;浙江大學孫鋼獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉國網浙江省電力有限公司營銷服務中心;浙江大學申請的專利一種基于最大池化自注意力機制的聲紋識別方法及系統獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116072127B 。
龍圖騰網通過國家知識產權局官網在2025-08-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211733131.1,技術領域涉及:G10L17/18;該發明授權一種基于最大池化自注意力機制的聲紋識別方法及系統是由孫鋼;沈然;沈皓;李伊玲;汪一帆;徐世予;章江銘;章一新;項瑩潔;佘清順設計研發完成,并于2022-12-30向國家知識產權局提交的專利申請。
本一種基于最大池化自注意力機制的聲紋識別方法及系統在說明書摘要公布了:本發明公開了一種基于最大池化自注意力機制的聲紋識別方法及系統。本發明的方法包含如下步驟:提取音頻特征序列;使用卷積神經網絡對音頻特征序列進行降采樣處理;使用基于最大池化自注意力機制的Transformer編碼器進行訓練;對Tranformer編碼器的輸出進行正則化;使用統計注意力聚合的方法提取說話人聲紋編碼;使用角度原型損失函數最小化訓練損失。相比于傳統Transformer進行聲紋識別,本發明對Transformer的自注意力機制做了改進,在相似度矩陣中引入最大池化操作,提高自注意力機制對局部信息的建模能力;本發明較原始Transformer更適合進行聲紋識別,準確率更高。
本發明授權一種基于最大池化自注意力機制的聲紋識別方法及系統在權利要求書中公布了:1.一種基于最大池化自注意力機制的聲紋識別方法,其特征在于,包括步驟: S1:輸入音頻Α,提取音頻特征序列,得到序列T; S2:使用卷積神經網絡對步驟S1得到的序列T進行降采樣處理,得到降采樣后的序列S; S3:將步驟S2得到的序列S輸入基于最大池化自注意力機制的Transformer編碼器中進行訓練,得到輸出序列O; S4:對步驟S3得到的輸出序列O進行正則化,得到正則化之后的序列L; S5:使用統計注意力聚合的方法從步驟S4得到的序列L中提取說話人聲紋編碼e; S6:根據步驟S5得到的說話人聲紋編碼e整理成聲紋編碼集合,計算每個說話人的聲紋編碼特征中心點;根據每個說話人的聲紋編碼特征中心點,計算當前說話人第M條聲紋編碼與所有說話人的聲紋編碼特征中心點的余弦相似度組成的相似度矩陣;根據相似度矩陣,使用角度原型損失函數優化訓練過程中的損失,使其最小化; 所述步驟S3使用Transformer編碼器進行訓練時的自注意力機制過程如下: S3-1:通過對步驟S2得到的序列S進行投影得到查詢集Q、鍵值集K和價值集V,過程如下: Q=SWQ K=SWK V=SWV 其中,WQ、WK、WV分別為第一可學習參數、第二可學習參數、第三可學習參數; S3-2:通過查詢集Q和鍵值集K計算得到相似度矩陣Λ,計算過程如下: 式中,T表示轉置;dk表示K的維度大??; S3-3:對步驟S3-2得到的矩陣Λ引入卷積核大小為2×2的最大池化操作,得到每個卷積核內相似度分數最大的元素的位置信息集合P={p1,p2,…,pN},其中N為位置信息個數,計算過程如下: P=maxpΛ 其中,maxp函數表示返回每個卷積核內相似度分數最大的元素的位置信息; S3-4:通過步驟S3-3得到的位置信息集合P生成偏置矩陣M,M定義如下: S3-5:根據步驟S3-1得到的價值集V、步驟S3-2得到的相似度矩陣Λ和步驟S3-4得到的偏置矩陣M計算最終結果,即為輸出序列O,計算過程如下: AtentionQ,K,V=softmaxΛ+MV 其中,softmax為指數歸一化函數。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人國網浙江省電力有限公司營銷服務中心;浙江大學,其通訊地址為:311100 浙江省杭州市余杭區云聯路138號5幢;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。