昆明理工大學余正濤獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉昆明理工大學申請的專利基于領域特定子層隱變量的多領域自適應神經機器翻譯方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115204196B 。
龍圖騰網通過國家知識產權局官網在2025-08-22發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202210823703.9,技術領域涉及:G06F40/58;該發明授權基于領域特定子層隱變量的多領域自適應神經機器翻譯方法是由余正濤;文永華;黃雙宏;徐金磊設計研發完成,并于2022-07-14向國家知識產權局提交的專利申請。
本基于領域特定子層隱變量的多領域自適應神經機器翻譯方法在說明書摘要公布了:本發明提出基于領域特定子層隱變量的多領域自適應神經機器翻譯方法。領域適應可以有效解決特定領域翻譯性能差的問題,現有方法通常依靠混合多個領域數據來獲得單個通用的多領域神經機器翻譯模型。然而,大規模通用領域數據與多個特定領域數據的混合會造成最終模型災難性遺忘、域間參數干擾的問題,從而導致性能下降以及通用領域模型容量不足的矛盾。因此本發明使用Gumbel?Softmax重新參數化技巧同時學習模型參數和隱變量,獲得的模型能學習特定領域的知識,并通過隱變量共享通用領域知識。實驗結果表明,在多領域神經機器翻譯中,本發明在英德和中英多領域神經機器翻譯中比基線模型分別平均提高了3.2和1.68BLEU值。
本發明授權基于領域特定子層隱變量的多領域自適應神經機器翻譯方法在權利要求書中公布了:1.基于領域特定子層隱變量的多領域自適應神經機器翻譯方法,其特征在于:所述方法的具體步驟如下: Step1、下載訓練數據集,使用工具對數據進行數據預處理操作; Step2、在Transformer模型的基礎上,使用“Pre-LN”前向歸一化操作,插入領域特定子層隱變量,使用Gumbel-Softmax重新參數化技巧來同時學習模型參數和隱變量; Step3、最后通過混合由領域標簽控制的通用領域和特定領域數據聯合訓練并獲得一個統一的多領域神經機器翻譯模型來進行翻譯; 所述Step2的具體步驟: 首先,訓練過程中在Transformer架構上使用“Pre-LN”前向歸一化而不是“Post-LN”后向歸一化來提高模型穩定性; 其次插入領域特定子層隱變量來控制模型是否跳過當前子層,當隱變量值為0時當前子層將被跳過,隱變量值為1時,當前子層將被選擇;為此,引入后驗概率分布逼近隱變量的真實分布,引入變分推理來求解領域特定子層隱變量; 最后從近似后驗概率分布中采樣,使用Gumbel-Softmax重新參數化技巧來同時學習模型參數和隱變量。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人昆明理工大學,其通訊地址為:650500 云南省昆明市呈貢區景明南路727號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。