• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發布專利 發布成果 人才入駐 發布商標 發布需求

      在線咨詢

      聯系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 重慶郵電大學陳前斌獲國家專利權

      重慶郵電大學陳前斌獲國家專利權

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

      龍圖騰網獲悉重慶郵電大學申請的專利基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116309704B

      龍圖騰網通過國家知識產權局官網在2025-08-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202310138614.5,技術領域涉及:G06T7/246;該發明授權基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法是由陳前斌;潘翔;唐倫設計研發完成,并于2023-02-20向國家知識產權局提交的專利申請。

      基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法在說明書摘要公布了:本發明涉及一種基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法,屬于多目標跟蹤技術領域,包括以下步驟:S1:利用無人機對目標對象進行圖像采集,并將采集到的圖像按照PascalVOC數據集的格式進行命名;S2:對圖像進行預處理;S3:根據計算機內存、GPU能力和用戶所需的識別效果和訓練速度設計卷積神經網絡輸入圖像的尺寸、識別種類的數量、訓練次數、學習率,網絡的層數;S4:對特征提取網絡部分、檢測部分和重識別部分的網絡結構進行改進,得到改進的監測模型;S5:訓練網絡模型,訓練結束后保存訓練好的網絡模型權重;S6:運用訓練完成的網絡模型權重進行識別。

      本發明授權基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法在權利要求書中公布了:1.一種基于無錨框檢測網絡和特征再融合模塊的小目標跟蹤方法,其特征在于:包括以下步驟: S1:利用無人機對目標對象進行圖像采集,并將采集到的圖像按照PascalVOC數據集的格式進行命名; S2:對圖像進行預處理; S3:根據計算機內存、GPU能力和用戶所需的識別效果和訓練速度設計卷積神經網絡輸入圖像的尺寸、識別種類的數量、訓練次數、學習率,網絡的層數; S4:對特征提取網絡部分、檢測部分和重識別部分的網絡結構進行改進,得到改進的監測模型;步驟S4中所述對特征提取網絡部分的網絡結構進行改進,具體為基于YOLOv5的改進檢測網絡YOLOX,并加入特征融合模塊; 所述YOLOX網絡結構包括骨干網絡,頸部和檢測頭部三個部分; 檢測頭部采用解耦合的方式將分類損失和邊界框損失分別用不同檢測分支處理,采用anchor-free的方式進行預測框的預測; 骨干網絡采用CSPDarknet,整個主干部分由殘差卷積組成,包括多個CSPLayer結構,CSPLayer分為兩個部分,主分支根據網絡設定的深度堆疊N個殘差塊,殘差分支僅作少量處理后直接和主分支進行拼接,經過卷積層,BN層后經SiLU激活函數激活輸入到下一層CSPLayer結構中,其中殘差塊也分為兩部分,主干部分為1×1的卷積和3×3的卷積,殘差邊采用跳躍連接直接將主干的輸入輸出進行結合;將原骨干網絡中下采樣四倍得到分辨率為160×160的特征圖加入到融合網絡中; 頸部采用FPN-PAN的特征金字塔結構,FPN負責自底向上傳遞語義信息,PAN負責自頂向下傳遞位置信息和邊緣信息; 將經過融合網絡后的四層不同分辨率大小的特征圖輸入到特征再融合模塊中,將經過FPN-PAN網絡中輸出的特征圖P2_out,P3_out,P4_out和P5_out經過線性插值或最大池化操作,獲得和P4_out同樣大小的特征圖;之后對所有特征圖再執行相加和平均,獲得平衡高語義和定位信息的統一特征圖x,對特征圖x采用非局部運算將某個位置的響應計算為所有位置的特征的加權和;然后用深度神經網絡捕捉長距離依賴關系;最后將得到的特征圖y恢復到融合前的特征圖尺寸,并與相應的特征圖進行再融合得到融合的特征圖E2,E3,E4和E5,其公式如下: 其中k表示第k個特征圖,i和j表示不同的位置; 采用嵌入的高斯非局部注意力來細化特征圖; 計算i和所有其他可能關聯位置j之間的成對關系,函數fxi,xj如下: 其中θxi=Wθxi和是兩個嵌入部分; 構建用于計算位置j處輸入特征的特征值的函數gxj: gxj=Wgxj 其中Wg是一個可學習的權重矩陣,在空間域中由1×1的卷積層實現; 計算歸一化參數Sx: y經過相應縮放后得到特征圖{y_1,y_2,y_3,y_4,y_5},將其分別于對應的原始特征圖P2_out,…,P5_out相加得到在融合后的特征圖E2,…,E5,這些特征圖將會用于網絡的最終的判決: 所述對檢測部分和重識別部分的網絡結構進行改進,包括:增加額外的ReID的特征提取位置偏移分支來調整目標的ReID特征提取位置,檢測分支計算出當前幀的目標中心位置oi=oi x,oi y,ReID特征提取偏移分支輸出位置偏移分量ei=ei x,ei y,將物理框的中心位置加上偏移分量即為目標的ReID特征提取中心然后通過目標i的特征提取中心ci點處相鄰的4個坐標使用雙線性插值得到其特征向量Fi; S5:訓練網絡模型,訓練結束后保存訓練好的網絡模型權重; S6:運用訓練完成的網絡模型權重進行識別。

      如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人重慶郵電大學,其通訊地址為:400065 重慶市南岸區黃桷埡崇文路2號;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

      免責聲明
      1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
      2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
      主站蜘蛛池模板: 久久国产精品伊人青青草| 精品国产精品国产偷麻豆| 亚洲最大成人美女色av| 精品国偷自产在线视频99| 国产乱子影视频上线免费观看| 国产成人亚洲无码淙合青草| 色伦专区97中文字幕| 久久综合九色综合欧洲98| 精品偷拍一区二区三区| 中文文字幕文字幕亚洲色| 国产成人啪精品午夜网站| 高清偷拍一区二区三区| 九九热在线精品视频九九| 中文字幕亚洲综合第一页| 麻豆一区二区三区香蕉视频| 亚洲av成人久久18禁| 蜜桃成熟色综合久久av| 国产区一区二区现看视频| 亚洲色大成网站www看下面| 无码熟妇人妻av在线电影| 四虎成人精品无码| 亚欧洲乱码视频在线专区| 色成人亚洲| 亚洲国产美女精品久久久| 色综合AV综合无码综合网站| 精品国产中文字幕av| 久久精品夜夜夜夜夜久久| 亚洲日本VA午夜在线电影| 国语自产拍精品香蕉在线播放| 久热综合在线亚洲精品| 国产不卡精品视频男人的天堂| 日韩av综合中文字幕| 丁香五月亚洲综合在线国内自拍 | 亚洲日本精品一区二区| 91久久夜色精品国产网站| 婷婷五月综合丁香在线| 国产精品v欧美精品∨日韩 | 一本一道av无码中文字幕麻豆| 国产免费一区二区三区在线观看| 熟女亚洲综合精品伊人久久| 久久精品国产亚洲AV麻豆长发|