南京理工大學郭劍輝獲國家專利權(quán)
買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!
龍圖騰網(wǎng)獲悉南京理工大學申請的專利一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN116091892B 。
龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-08發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202310104561.5,技術(shù)領域涉及:G06V10/82;該發(fā)明授權(quán)一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法是由郭劍輝;李智強;陶叔銀;李倫波;濮存來設計研發(fā)完成,并于2023-02-13向國家知識產(chǎn)權(quán)局提交的專利申請。
本一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法在說明書摘要公布了:本申請公開了一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法,F(xiàn)astDet網(wǎng)絡主干網(wǎng)絡包含通道拆分、跨階段通道拼接、殘差連接和通道混洗操作;頸部網(wǎng)絡改進于YOLOv4Tiny,將原有的FPN改為交叉型FPN,進一步加強了特征融合,同時引入ECA注意力模塊,加強對重點通道的關注度;檢測頭借鑒YOLOX設計思想,將類別預測和置信度、回歸預測進行解耦,加快網(wǎng)絡訓練收斂速度,提升最終精度;正樣本匹配部分采用改進版SimOTA*策略,確保了訓練初期以及應對困難樣本時能夠匹配合適的正樣本,穩(wěn)定網(wǎng)絡訓練;損失函數(shù)部分采用SIOU損失,同時考慮重疊區(qū)域、中心點距離、邊框的寬高與角度,最終優(yōu)化邊框回歸精度。該方法作為一個通用的輕量級目標檢測器,經(jīng)過訓練后應用于諸多計算機視覺任務。
本發(fā)明授權(quán)一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法在權(quán)利要求書中公布了:1.一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法,其特征在于,包括以下步驟: 步驟1、對需要檢測的圖像進行預處理; 步驟2、將預處理后的圖像送入FastDet網(wǎng)絡,所述FastDet網(wǎng)絡是一種輕量級卷積神經(jīng)網(wǎng)絡,包括輕量級卷積模塊FastLayer、ECA注意力機制、交叉FPN結(jié)構(gòu)以及解耦的檢測頭;預處理后的圖像依次經(jīng)過主干網(wǎng)絡、頸部網(wǎng)絡和檢測頭,經(jīng)過網(wǎng)絡的特征提取,輸出兩張預測特征圖; 步驟3、對FastDet網(wǎng)絡進行訓練,通過FastDet網(wǎng)絡輸出的特征圖與圖像標簽計算得到損失,將損失通過反向傳播一步步更新網(wǎng)絡權(quán)值,從而使得網(wǎng)絡具有檢測特定目標的能力; 步驟4、基于訓練好的模型,對FastDet網(wǎng)絡輸出的兩個特征圖進行解碼得到所檢測出的目標類別和邊框信息,執(zhí)行非極大值抑制過濾重復預測框;將最終預測框還原回原圖尺度,繪制預測邊框,完成目標檢測; 步驟1具體為,將需要檢測的圖像縮放到預設大小,并將每個像素值除以255歸一化到0~1之間;由于網(wǎng)絡總共進行了5次寬高維的減半,需要確保縮放后的圖片邊長是32的倍數(shù); 步驟2具體為,將預處理后的圖像送入FastDet網(wǎng)絡,依次經(jīng)過主干網(wǎng)絡、頸部網(wǎng)絡和檢測頭;其中主干網(wǎng)絡包含通道拆分、跨階段局部拼接、殘差連接和通道混洗操作;頸部網(wǎng)絡包括ECA注意力機制和交叉FPN結(jié)構(gòu),能夠加強特征融合能力;檢測頭設計成解耦的形式以及anchor-free的框架流程,加速網(wǎng)絡訓練收斂速度; 所述主干網(wǎng)絡采用獨立設計的FastLayer卷積模塊進行特征提取,所述FastLayer卷積模塊是一種包含通道拆分、跨階段局部拼接、殘差連接以及通道混洗的卷積模塊;FastLayer模塊首先會經(jīng)過步幅為2的3×3卷積將特征圖的寬和高減半;隨后包含兩個分支,左側(cè)分支不進行任何處理,右側(cè)分支先保存臨時值,隨后經(jīng)過一系列步幅為1的3×3卷積后再與臨時值相加,用于簡化學習過程、預防梯度消失以及減少重復計算;隨后,兩個分支進行通道維的拼接,以此來進行通道升維操作,避免引入過多參數(shù);最后進行分組數(shù)為4的通道混洗操作,在不引入額外參數(shù)的同時,使通道充分融合; 步驟3具體為,訓練時,兩個特征圖將通過改進的SimOTA*正樣本匹配策略來確定正負樣本,隨后計算邊框回歸損失、置信度損失和類別損失,其中邊框回歸損失采用SIOU方法,置信度損失和類別損失都采用二元交叉熵損失;最后通過反向傳播來更新網(wǎng)絡權(quán)值。
如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人南京理工大學,其通訊地址為:210094 江蘇省南京市玄武區(qū)孝陵衛(wèi)200號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。
1、本報告根據(jù)公開、合法渠道獲得相關數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。