四川大學(xué)朱敏獲國(guó)家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉四川大學(xué)申請(qǐng)的專利一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法獲國(guó)家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國(guó)家知識(shí)產(chǎn)權(quán)局授予,授權(quán)公告號(hào)為:CN116580040B 。
龍圖騰網(wǎng)通過(guò)國(guó)家知識(shí)產(chǎn)權(quán)局官網(wǎng)在2025-08-08發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請(qǐng)?zhí)?專利號(hào)為:202310591183.8,技術(shù)領(lǐng)域涉及:G06T7/12;該發(fā)明授權(quán)一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法是由朱敏;高承睿;程俊龍;楊子元;陳迎語(yǔ);王鳳杰設(shè)計(jì)研發(fā)完成,并于2023-05-24向國(guó)家知識(shí)產(chǎn)權(quán)局提交的專利申請(qǐng)。
本一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法在說(shuō)明書摘要公布了:本發(fā)明屬于圖像分割領(lǐng)域,具體涉及了一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法。首先,本發(fā)明利用隔像素采樣的方式將原始分辨率圖像切分為4相同尺寸的圖像塊;然后,本發(fā)明在U型網(wǎng)絡(luò)的編解碼結(jié)構(gòu)中設(shè)計(jì)了類Transformer模塊和DenseMLP模塊,使得網(wǎng)絡(luò)模型可以獲得更大感受野并捕獲多尺度特征信息;最后,本發(fā)明將公開(kāi)數(shù)據(jù)集進(jìn)行訓(xùn)練集與測(cè)試集的劃分,并將數(shù)據(jù)輸入網(wǎng)絡(luò)模型,通進(jìn)網(wǎng)絡(luò)訓(xùn)練后,獲得圖像分割結(jié)果。本發(fā)明解決了現(xiàn)有的各類卷積神經(jīng)網(wǎng)絡(luò)在醫(yī)學(xué)圖像分割問(wèn)題上存在的無(wú)法有效建立起遠(yuǎn)程依賴和感受野不足的問(wèn)題。
本發(fā)明授權(quán)一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法在權(quán)利要求書中公布了:1.一種基于類Transformer網(wǎng)絡(luò)的醫(yī)學(xué)圖像分割方法,其特征在于,包括如下步驟: 步驟1:選擇公開(kāi)的醫(yī)學(xué)圖像分割數(shù)據(jù)集,并對(duì)數(shù)據(jù)集中的訓(xùn)練集進(jìn)行預(yù)處理; 步驟2:構(gòu)建圖像切片模塊,用于輸入圖像分割網(wǎng)絡(luò)的小尺寸圖像塊; 步驟3:構(gòu)建跨流注意力模塊和密集多層感知器模塊,用于捕獲多尺度特征; 步驟4:通過(guò)跨流注意力模塊和密集多層感知器模塊構(gòu)建類Transformer模塊,以此捕獲圖像塊之間的重要全局上下文信息,提取豐富的局部信息和空間紋理信息; 步驟5:將所述類Transformer模塊作為編碼器、解碼器的組成部分,結(jié)合橋接器構(gòu)建U型分割網(wǎng)絡(luò)框架; 所述步驟3中跨流注意力模塊和密集多層感知器模塊設(shè)計(jì)過(guò)程如下: 步驟3.1:將圖像切片模塊的輸出特征圖作為跨流注意力模塊的輸入特征,跨流注意力模塊包括三條分支,分別為大核注意力分支、空間注意力分支和通道注意力分支;代表圖像塊尺寸高為H,寬為W,通道數(shù)量為C; 1所述大核注意力分支包括三個(gè)子操作DW-Conv、DW-D-Conv和1×1Conv,分別獲得XDW-Conv、XDW-D-Conv和XConv三個(gè)特征圖,大核注意力分支輸出特征圖表達(dá)公式如下; Xsl=Xl-1☉Conv1×1DW-D-ConvDW-ConvXl-1 其中,⊙為逐像素相乘操作,DW-Conv表示深度可分離卷積操作,DW-D-Conv表示深度可分離擴(kuò)張卷積操作,1×1Conv表示卷積核為1的卷積操作; 2所述空間注意力分支首先將特征圖Xl-1和XDW-Conv通過(guò)通道均值和重塑操作生成特征圖和N=H×W;將特征圖X′l和X′DW-Conv進(jìn)行矩陣相乘得到特征圖X′sn,然后將特征圖X′sn經(jīng)過(guò)softmax操作獲得特征圖最后特征圖X″sn和X′l矩陣相乘獲得空間注意力分支輸出的特征圖 3所述通道注意力分支將特征圖Xl-1和XDW-Conv通過(guò)全局池化和重塑操作生成特征圖和然后將特征圖X″l和X″DW-Conv進(jìn)行矩陣相乘生成特征圖X′c,并對(duì)特征圖X′c進(jìn)行softmax操作生成通道注意力圖X″c,最后將特征圖X″l和通道注意力圖X″c進(jìn)行矩陣相乘和重塑操作生成通道注意力分支輸出的特征圖 則跨流注意力模塊最終輸出特征圖的表達(dá)式為: 步驟3.2:密集多層感知器模塊的輸入為跨流注意力模塊的輸出特征圖首先對(duì)輸入經(jīng)過(guò)重塑操作獲得然后將輸入到經(jīng)過(guò)密集連接的多層感知器中,該過(guò) 程表達(dá)方式如下: 其中,K代表密集多層感知器模塊有K層,密集多層感知器模塊的所有后續(xù)層都與之前的層相關(guān);表示第k-1層的特征圖,G為密集多層感知器模塊的增長(zhǎng)率,Xk表示密集連接的多層感知器的輸出,表示第k層的特征圖,MLP表示多層感知器; 所述步驟4中類Transformer模塊包括三部分:歸一化層、跨流注意力模塊和密集多層感知器模塊,表示如下: 其中,Xl-1表示輸入網(wǎng)絡(luò)的特征圖,表示跨流注意力模塊的輸出,Xl表示類Transformer模塊輸出,Norm代表歸一化操作,SAA表示跨流注意力,DenseMLP表示密集多層感知器。
如需購(gòu)買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請(qǐng)人或?qū)@麢?quán)人四川大學(xué),其通訊地址為:610065 四川省成都市武侯區(qū)一環(huán)路南一段24號(hào);或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報(bào)告根據(jù)公開(kāi)、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
2、報(bào)告中的分析和結(jié)論僅反映本公司于發(fā)布本報(bào)告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
- 青島海信寬帶多媒體技術(shù)有限公司楊世海獲國(guó)家專利權(quán)
- 微軟技術(shù)許可有限責(zé)任公司N·M·拉帕波特獲國(guó)家專利權(quán)
- 華為技術(shù)有限公司張立斌獲國(guó)家專利權(quán)
- 福州高意光學(xué)有限公司賈旭獲國(guó)家專利權(quán)
- 北京南風(fēng)科創(chuàng)應(yīng)用技術(shù)有限公司方勵(lì)獲國(guó)家專利權(quán)
- 蒂森克虜伯普利斯坦股份公司渡邊芳信獲國(guó)家專利權(quán)
- 大和制衡株式會(huì)社長(zhǎng)井孝幸獲國(guó)家專利權(quán)
- 羅伯特·博世有限公司M.席格獲國(guó)家專利權(quán)
- 天津市天緣電工材料股份有限公司張玉謙獲國(guó)家專利權(quán)
- 新思考電機(jī)有限公司寺嶋厚吉獲國(guó)家專利權(quán)


熱門推薦
- 大和制衡株式會(huì)社津川久志獲國(guó)家專利權(quán)
- 中國(guó)醫(yī)學(xué)科學(xué)院腫瘤醫(yī)院赫捷獲國(guó)家專利權(quán)
- 華為技術(shù)有限公司陳二凱獲國(guó)家專利權(quán)
- 川田機(jī)械制造(上海)有限公司藤坂祐宏獲國(guó)家專利權(quán)
- 深圳市中天迅通信技術(shù)股份有限公司鄒毅獲國(guó)家專利權(quán)
- 上海夏凱建筑科技有限公司謝強(qiáng)獲國(guó)家專利權(quán)
- 中鐵上海工程局集團(tuán)華海工程有限公司王孝樂(lè)獲國(guó)家專利權(quán)
- 中興通訊股份有限公司胡文迪獲國(guó)家專利權(quán)
- 天津力神電池股份有限公司押媛媛獲國(guó)家專利權(quán)
- 日亞化學(xué)工業(yè)株式會(huì)社若松大獲國(guó)家專利權(quán)