• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

      在線咨詢

      聯(lián)系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權(quán)益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 南京理工大學郭劍輝獲國家專利權(quán)

      南京理工大學郭劍輝獲國家專利權(quán)

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

      龍圖騰網(wǎng)獲悉南京理工大學申請的專利一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN116091892B

      龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-08發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202310104561.5,技術(shù)領域涉及:G06V10/82;該發(fā)明授權(quán)一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法是由郭劍輝;李智強;陶叔銀;李倫波;濮存來設計研發(fā)完成,并于2023-02-13向國家知識產(chǎn)權(quán)局提交的專利申請。

      一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法在說明書摘要公布了:本申請公開了一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法,F(xiàn)astDet網(wǎng)絡主干網(wǎng)絡包含通道拆分、跨階段通道拼接、殘差連接和通道混洗操作;頸部網(wǎng)絡改進于YOLOv4Tiny,將原有的FPN改為交叉型FPN,進一步加強了特征融合,同時引入ECA注意力模塊,加強對重點通道的關注度;檢測頭借鑒YOLOX設計思想,將類別預測和置信度、回歸預測進行解耦,加快網(wǎng)絡訓練收斂速度,提升最終精度;正樣本匹配部分采用改進版SimOTA*策略,確保了訓練初期以及應對困難樣本時能夠匹配合適的正樣本,穩(wěn)定網(wǎng)絡訓練;損失函數(shù)部分采用SIOU損失,同時考慮重疊區(qū)域、中心點距離、邊框的寬高與角度,最終優(yōu)化邊框回歸精度。該方法作為一個通用的輕量級目標檢測器,經(jīng)過訓練后應用于諸多計算機視覺任務。

      本發(fā)明授權(quán)一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法在權(quán)利要求書中公布了:1.一種基于卷積神經(jīng)網(wǎng)絡的快速目標檢測方法,其特征在于,包括以下步驟: 步驟1、對需要檢測的圖像進行預處理; 步驟2、將預處理后的圖像送入FastDet網(wǎng)絡,所述FastDet網(wǎng)絡是一種輕量級卷積神經(jīng)網(wǎng)絡,包括輕量級卷積模塊FastLayer、ECA注意力機制、交叉FPN結(jié)構(gòu)以及解耦的檢測頭;預處理后的圖像依次經(jīng)過主干網(wǎng)絡、頸部網(wǎng)絡和檢測頭,經(jīng)過網(wǎng)絡的特征提取,輸出兩張預測特征圖; 步驟3、對FastDet網(wǎng)絡進行訓練,通過FastDet網(wǎng)絡輸出的特征圖與圖像標簽計算得到損失,將損失通過反向傳播一步步更新網(wǎng)絡權(quán)值,從而使得網(wǎng)絡具有檢測特定目標的能力; 步驟4、基于訓練好的模型,對FastDet網(wǎng)絡輸出的兩個特征圖進行解碼得到所檢測出的目標類別和邊框信息,執(zhí)行非極大值抑制過濾重復預測框;將最終預測框還原回原圖尺度,繪制預測邊框,完成目標檢測; 步驟1具體為,將需要檢測的圖像縮放到預設大小,并將每個像素值除以255歸一化到0~1之間;由于網(wǎng)絡總共進行了5次寬高維的減半,需要確保縮放后的圖片邊長是32的倍數(shù); 步驟2具體為,將預處理后的圖像送入FastDet網(wǎng)絡,依次經(jīng)過主干網(wǎng)絡、頸部網(wǎng)絡和檢測頭;其中主干網(wǎng)絡包含通道拆分、跨階段局部拼接、殘差連接和通道混洗操作;頸部網(wǎng)絡包括ECA注意力機制和交叉FPN結(jié)構(gòu),能夠加強特征融合能力;檢測頭設計成解耦的形式以及anchor-free的框架流程,加速網(wǎng)絡訓練收斂速度; 所述主干網(wǎng)絡采用獨立設計的FastLayer卷積模塊進行特征提取,所述FastLayer卷積模塊是一種包含通道拆分、跨階段局部拼接、殘差連接以及通道混洗的卷積模塊;FastLayer模塊首先會經(jīng)過步幅為2的3×3卷積將特征圖的寬和高減半;隨后包含兩個分支,左側(cè)分支不進行任何處理,右側(cè)分支先保存臨時值,隨后經(jīng)過一系列步幅為1的3×3卷積后再與臨時值相加,用于簡化學習過程、預防梯度消失以及減少重復計算;隨后,兩個分支進行通道維的拼接,以此來進行通道升維操作,避免引入過多參數(shù);最后進行分組數(shù)為4的通道混洗操作,在不引入額外參數(shù)的同時,使通道充分融合; 步驟3具體為,訓練時,兩個特征圖將通過改進的SimOTA*正樣本匹配策略來確定正負樣本,隨后計算邊框回歸損失、置信度損失和類別損失,其中邊框回歸損失采用SIOU方法,置信度損失和類別損失都采用二元交叉熵損失;最后通過反向傳播來更新網(wǎng)絡權(quán)值。

      如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人南京理工大學,其通訊地址為:210094 江蘇省南京市玄武區(qū)孝陵衛(wèi)200號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

      免責聲明
      1、本報告根據(jù)公開、合法渠道獲得相關數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
      2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。
      主站蜘蛛池模板: 亚洲AV日韩AV激情亚洲 | 国产无遮挡又黄又大又爽| 伊人色综合久久天天| 国产精品午夜福利小视频| 青草成人精品视频在线看| 日韩国产中文字幕精品| 国产又黄又湿又刺激网站| 国产精品护士| 中文字幕99国产精品| 国产成人无码免费看视频软件| 国产成人免费一区二区三区| 亚洲色在线v中文字幕| 鲁一鲁一鲁一鲁一澡| 日韩av爽爽爽久久久久久| 精品人妻伦九区久久69| 伊人久久大香线蕉综合观| 国产欧美丝袜在线二区| 在线免费播放av观看| 日韩亚洲国产激情一区二区| 亚洲精品日韩中文字幕| 亚洲AVAV天堂AV在线网阿V| 亚洲午夜无码久久久久小说| 国产一区二区三区导航| 亚洲国产精品久久电影欧美| 天堂av成人网在线观看| 国厂精品114福利电影免费| 国产一区二区在线影院| 色综合天天综合网国产人| 国产精品美女一区二区三| 久久精品国产亚洲AV瑜伽| 日韩精品一区二区av在线| 亚洲高潮喷水无码AV电影| 久久99精品久久久久麻豆| 一区二区三区国产亚洲自拍| 国产精品中文字幕观看| 中文字幕人妻中出制服诱惑| 亚洲熟妇熟女久久精品综合| 欧美性群另类交| 国产精品99久久免费| 熟女精品视频一区二区三区| 精品九九人人做人人爱|