燕山大學宮繼兵獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉燕山大學申請的專利一種基于概率圖和ViT模型的圖片分類方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN115953617B 。
龍圖騰網通過國家知識產權局官網在2025-08-08發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211555848.1,技術領域涉及:G06V10/764;該發明授權一種基于概率圖和ViT模型的圖片分類方法是由宮繼兵;彭吉全;林宇庭;趙金燁;叢方鵬設計研發完成,并于2022-12-06向國家知識產權局提交的專利申請。
本一種基于概率圖和ViT模型的圖片分類方法在說明書摘要公布了:本發明涉及一種基于概率圖和ViT模型的圖片分類方法,屬于計算機視覺圖片分類技術領域,將多頭注意力機制從概率論的角度進行建模,將多頭注意力中的attentionvalue看作隱變量,利用概率圖模型的Explaining?awayEffects以及Transformer的層級結構,將attentionlogits層層傳遞,并將相鄰層的值進行融合,促進不同頭部之間的交互。本發明針對普通VisionTransformer模型中多頭注意力機制頭部參數的冗余問題,將多頭注意力機制建模為概率圖模型,將注意力值看作隱變量,促進不同注意力頭部之間的交互。
本發明授權一種基于概率圖和ViT模型的圖片分類方法在權利要求書中公布了:1.一種基于概率圖和ViT模型的圖片分類方法,其特征在于,包括以下步驟: S1、將輸入模型的圖片進行分塊,然后將每個圖片塊展平成一維向量,最后通過線性變換生成patchembedding; S2、給每個patchembedding加上位置編碼,補充位置信息; S3、增加一個用于分類的Token,學習其他圖片patch的整體信息; S4、基于頭部交互的TransformerBlock,把attentionvalues看作隱變量,利用概率圖模型中的Explaining-awayEffects以及Transformer的層級結構,將attentionlogits層層傳遞,并將相鄰層的值進行融合,促進不同頭部之間的交互;S4的具體步驟為: S41、attentionhead序列建模,將attentionvalue看作隱變量, pY∣X=∫ApY∣A,XpA∣XdA 其中,Y為圖片label,X為輸入照片,A為中間層Attentionvalues,pA∣X是聯合先驗分布; S42、Transformer層次化建模,利用transformer的層級結構,將此過程可表示為: 其中,Aj表示第j層的attention分布,Aj的計算需要依賴Aj-1的遞歸結構,具體來講,Aj的計算通式如下: S43、相鄰層的attention融合,在Transformer的層級Block的多頭注意力計算模塊添加MLP,將各層之間的attentionvlaue進行融合交互,促進不同頭部的去冗余,將此過程可表示為: Aj=softmaxzj+MLPzj,zj-1 其中,zj為第j層的attentionlogits,MLP是兩層全連接層,用于相鄰層注意力值得融合交互; S5、使用兩層全連接層,將分類Token輸入分類層,得到圖片的分類結果。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人燕山大學,其通訊地址為:066004 河北省秦皇島市海港區河北大街438號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。