吉林大學黃星雷獲國家專利權
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!
龍圖騰網獲悉吉林大學申請的專利一種基于深度學習的礦物自動分割方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN120411139B 。
龍圖騰網通過國家知識產權局官網在2025-09-02發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202510926752.9,技術領域涉及:G06T7/11;該發明授權一種基于深度學習的礦物自動分割方法是由黃星雷;郭宇航;潘保芝;張麗華;王欣茹設計研發完成,并于2025-07-07向國家知識產權局提交的專利申請。
本一種基于深度學習的礦物自動分割方法在說明書摘要公布了:本發明公開了一種基于深度學習的礦物自動分割方法,所述方法包括:圖像的預處理,根據礦物化學性質和物理特征將QEMSCAN圖像中的多種礦物進行合并;深度學習模型的訓練與標簽制作,將頁巖SEM圖像切割成圖片,作為訓練集、驗證集和測試集,QEMSCAN圖像切割成圖片,作為標簽,輸入到Swin?Transformer模型中進行訓練,用驗證集模型調節參數,測試集測試模型分割礦物精度;使用Swin?Transformer模型分割礦物前建立對應的函數關系式將SEW圖像的灰度和CT圖像灰度校正到一致,再對頁巖CT圖像礦物進行分割,最后統計分割后各礦物體積分數與礦物X射線衍射分析報告中的質量分數轉換為的體積分數對比,驗證模型分割的礦物結果是否準確。本發明能夠實現對礦物圖像做出合理的分割。
本發明授權一種基于深度學習的礦物自動分割方法在權利要求書中公布了:1.一種基于深度學習的礦物自動分割方法,其特征在于,所述方法包括以下步驟: 步驟一、圖像的預處理,根據礦物化學性質和物理特征將QEMSCAN圖像中的多種礦物進行合并; 步驟二、深度學習模型的訓練與標簽制作,將頁巖SEM圖像切割成256×256像素大小的圖片,作為訓練集、驗證集和測試集,QEMSCAN圖像切割成同樣大小和數量的圖片,作為標簽,輸入到Swin-Transformer模型中進行訓練,用驗證集模型調節參數,測試集測試模型分割礦物精度; 步驟三、將步驟二中測試精度達標的Swin-Transformer模型用于頁巖CT圖像的礦物分割,使用Swin-Transformer模型分割礦物前建立對應的函數關系式將SEW圖像的灰度和CT圖像灰度校正到一致,再對頁巖CT圖像礦物進行分割,最后統計分割后各礦物體積分數與礦物X射線衍射分析報告中的質量分數轉換為的體積分數對比,驗證模型分割的礦物結果是否準確; 步驟二中,深度學習模型的訓練與標簽制作包括: S21、制作訓練集、驗證集、測試集和標簽; 將經過步驟一處理后的QEMSCAN圖像作為標簽圖像和與之對應的SEM圖像作為樣本,分別將QEMSCAN圖像和SEM圖像切割成256×256像素大小的圖片共432張,其中400張作為訓練集,剩余的32張一半作為驗證集,另一半作為測試集,還需建立字典將QEMSCAN圖像中的每個顏色的RGB值與單一數值建立映射關系; S22、Swin-Transformer模型搭建與訓練; Swin-Transformer結構包括: S221、輸入分塊: Swin-Transformer將輸入圖像分割成固定大小的小塊; 每個小塊被展平并通過線性層映射為固定維度的特征向量; S222、分層設計: Swin-Transformer采用層次化的特征提取方式,整個網絡分為4個階段,每個階段逐步減少空間分辨率并增加特征維度; 在每個階段之間,通過分塊合并操作將相鄰的2×2像素大小的小塊合并為一個更大的小塊,從而降低分辨率,同時特征維度翻倍; S223、Swin-Transformer模塊; 每個階段由若干個Swin-Transformer模塊組成,每個模塊包含以下子模塊: LayerNormalization,即LN:對輸入特征進行歸一化; WindowMulti-headSelf-Attention,即W-MSA:在固定大小的窗口內計算多頭自注意力; ShiftedWindowMulti-headSelf-Attention,即SW-MSA:通過窗口移位,在下一層建立跨窗口的連接; 多層感知器,即MLP:包含兩個全連接層,中間使用GELU激活函數; 殘差連接:每個子模塊后都有殘差連接; S224、窗口自注意力機制: W-MSA:將輸入特征劃分為多個不重疊的窗口,僅在每個窗口內部計算自注意力; SW-MSA:通過將窗口位置移位,在相鄰層之間引入跨窗口的連接,從而實現全局信息的傳遞; S225、相對位置編碼: Swin-Transformer在注意力計算中引入了相對位置偏置,而不是絕對位置編碼; 對于窗口內的兩個位置i,j和k,l,注意力計算公式為: 公式5:; 式中Attention代表注意力機制,讓模型動態關注輸入數據的不同部分的內容;Q代表查詢矩陣,用于與其他位置的Key進行匹配,決定哪些位置的信息對當前小塊更重要;K代表鍵矩陣,與Q進行點積運算,計算每個位置之間的相似度;V代表值矩陣,V是注意力機制輸出時的加權內容,最終結果是由注意力權重對V進行加權求和得到的;T代表矩陣轉置;d代表特征維度;B代表相對位置偏置,使得模型能夠感知空間位置信息;Softmax代表一種常用激活函數,用于多分類問題,將一個實數向量轉換為概率分布,使得每個元素的值在0到1之間,并且所有元素的和為1; S226、輸出: 在最后一個階段結束后,特征圖經過全局平均池化,然后通過線性層輸出結果; 根據上面Swin-Transformer結構搭建模型,將準備好的256×256像素大小的400張SEM圖片作為訓練集和與之對應的QEMSCAN圖片作為標簽輸入到Swin-Transforer模型中進行訓練,通過驗證集對模型進行調參,最后用測試集測試模型的分割精度是否達標。
如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人吉林大學,其通訊地址為:130012 吉林省長春市前進大街2699號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。
1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。