• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發布專利 發布成果 人才入駐 發布商標 發布需求

      在線咨詢

      聯系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 杭州電子科技大學楊金晶獲國家專利權

      杭州電子科技大學楊金晶獲國家專利權

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

      龍圖騰網獲悉杭州電子科技大學申請的專利一種基于目標檢測神經網絡的聲納圖像實時檢測方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN114219998B

      龍圖騰網通過國家知識產權局官網在2025-08-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202111664998.1,技術領域涉及:G06V20/05;該發明授權一種基于目標檢測神經網絡的聲納圖像實時檢測方法是由楊金晶;秦飛巍;於勤翔設計研發完成,并于2021-12-31向國家知識產權局提交的專利申請。

      一種基于目標檢測神經網絡的聲納圖像實時檢測方法在說明書摘要公布了:本發明公開了一種基于目標檢測神經網絡的聲納圖像實時檢測方法。本發明步驟:步驟1、構建聲吶圖像數據集,并劃分為訓練集和測試集;步驟2、數據預處理:對構建的訓練集和測試集進行降噪、數據歸一化、全分辨率數據增廣處理;步驟3、構建水下聲吶圖像實時檢測網絡;步驟4、基于訓練集對聲吶圖像實時檢測網絡進行訓練;步驟5、基于測試集驗證聲吶圖像實時檢測網絡的準確性和實時性。本發明借鑒了YOLO系列、SSD與RetinaNet等網絡的框架,設計并使用骨干網絡,并最大限度增加輸入信息量,通過數據擴充增加樣本量,降噪預處理和設計損失函數等方法進行改進,以滿足檢測網絡準確性的要求。最終設計了在保持速度優勢的前提下并且提升了預測精度的SonarDet系統。

      本發明授權一種基于目標檢測神經網絡的聲納圖像實時檢測方法在權利要求書中公布了:1.一種基于目標檢測神經網絡的聲納圖像實時檢測方法,其特征在于包括如下步驟: 步驟1、構建聲吶圖像數據集,并劃分為訓練集和測試集; 步驟2、數據預處理:對構建的訓練集和測試集進行降噪、數據歸一化、全分辨率數據增廣處理; 步驟3、構建水下聲吶圖像實時檢測網絡,包括骨干網絡、多尺度融合模塊、kmeans算法模塊、目標檢測模塊以及Loss函數設計模塊;骨干網絡選取改進的darknet-53網絡,預處理后訓練集中的圖像經過骨干網絡處理后得到兩張尺度不同的高通道維度低分辨率的特征圖;多尺度融合模塊對得到的兩個尺度的特征圖進行融合,得到融合特征圖;使用kmeans聚類模塊對訓練集數據中的標注框進行聚類,得到6個母先驗框;通過母先驗框的比例和位置隨機生成多個先驗框;目標檢測模塊基于kmeans聚類模塊得到的先驗框,對兩個尺度的融合特征圖進行預測,通過預測框坐標相對于先驗框的四個偏移量,識別出融合特征圖中聲吶目標位置; 步驟4、基于訓練集對聲吶圖像實時檢測網絡進行訓練; 步驟5、基于測試集驗證聲吶圖像實時檢測網絡的準確性和實時性; 步驟1具體實現如下: 聲吶圖像數據集來自中船重工715所提供的數據集,將數據集按照8:2分成訓練集和測試集,并對訓練集數據進行標注,其中訓練集包含4002張,測試集包含1000張圖片,目標檢測物類別包含柱狀、線狀兩種外形; 步驟3中的骨干網絡具體結構如下: 骨干網絡使用darknet-53的前52層,即去除全連接層并保留殘差通路以及LeakyReLU激活函數; 經過預處理后的圖像大小為1024*1024*1,將其輸入骨干網絡:首先是進入一個32個過濾器的卷積核,輸出的圖像大小為1024*1024*32,再將其一次輸入到5組重復的殘差單元residualblock中,這5組殘差單元的每個殘差單元都由一個單獨的卷積層與一組重復執行的卷積層構成,重復執行的卷積層分別重復1次、2次、8次、8次、4次;在每個重復執行的卷積層中,先執行1×1的卷積操作,再執行3×3的卷積操作,過濾器數量先減半再恢復,一共是52層;最后選取骨干網絡最后兩層的特征圖分別進行輸出,得到兩張尺度不同的高通道維度低分辨率的特征圖; 步驟3中的kmeans算法模塊具體實現如下: 先將融合后的特征圖劃為九宮格,每個小格2個尺度,每個尺度3個母先驗框,基于這54個母先驗框的比例和位置隨機生成總共兩千個先驗框;每小格的6個母先驗框是相同的,由kmeans算法模塊統計訓練集中的聲吶圖像的標注框的大小及長寬比,聚為6個類別; 步驟3中Loss函數設計模塊具體實現如下: 在類別與交叉熵部分引用FocalLoss函數來解決one-stage目標檢測中正負樣本比例嚴重失衡的問題,并在FocalLoss函數的基礎上設計增加了加速因子α,因此最終的Loss函數的具體公式如下: 其中,λcoord為用于平衡坐標損失影響力的超參,λcls為用于平衡分類損失影響力的超參,K表示網絡輸出層網格數目,M表示先驗框的數目,表示第i個網格中第j個先驗框與檢測目標的負責度,β為用于放大對小框的坐標損失的超參,xi和yi分別表示第i個標注框的中心點的橫坐標和縱坐標,和分別表示第i個預測框的中心點的橫坐標和縱坐標,ωi和hi分別表示第i個標注框的寬和高,和分別表示第i個預測框的寬和高,FocalLoss表示FocalLoss函數,用于計算其分類損失程度; 加速因子α的設計如下: 首先定義數據集圖像中任意區域的白點值為該區域像素數組中平均每元素數值大小;針對聲吶圖像中絕大多數目標區域的白點值比背景更高的特點,加速因子α能夠繞過網絡計算出額外的loss來影響梯度的計算,進而加速網絡的收斂;加速因子α的具體公式如下: 在加速因子α的公式中,a為超參,用于增大懲罰力度,即平衡數值分布,x表示平均像素數值。

      如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人杭州電子科技大學,其通訊地址為:310018 浙江省杭州市下沙高教園區2號大街;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

      免責聲明
      1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
      2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
      主站蜘蛛池模板: 免费中文字幕无码视频| 高清无码18| 亚洲经典av一区二区| 亚洲国产色一区二区三区| 日韩精品人妻中文字幕| 少妇人妻88久久中文字幕| 国产乱色熟女一二三四区| 久久精品娱乐亚洲领先| 亚洲精品在线少妇内射| 精品国产乱一区二区三区| 四虎精品永久在线视频| 欧美日本在线一区二区三区| 成 人色 网 站 欧美大片| 国产日产亚洲系列av| 中国CHINA体内裑精亚洲日本| 色综合人人超人人超级国碰| 人妻一区二区三区三区| 一个色的导航| 国产成人综合亚洲欧美日韩| 国产精品一二三中文字幕| 亚洲色大成网站WWW永久麻豆| 中文精品无码中文字幕无码专区| 欧美高清freexxxx性| 欧洲熟妇色自偷自拍另类| 亚洲av成人在线一区| 精品人妻伦一二二区久久| 国内不卡一区二区三区| 成人无码一区二区三区网站| 91亚洲精品一区二区三区| 亚洲熟妇自偷自拍另类| 图片区小说区av区| 亚洲欧美日韩愉拍自拍美利坚| 被黑人巨大一区二区三区| 欧美成本人视频免费播放| 人人妻人人澡人人爽| 福利一区二区不卡国产| 欧美丰满熟妇性xxxx| 怡红院一区二区三区在线| 国产精品天干天干综合网| 精品亚洲一区二区三区四区| 亚洲AV午夜成人无码电影|