• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預(yù)訂訂單
      服務(wù)訂單
      發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標(biāo) 發(fā)布需求

      在線咨詢

      聯(lián)系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標(biāo)交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
       /  免費(fèi)注冊
      到頂部 到底部
      清空 搜索
      當(dāng)前位置 : 首頁 > 專利喜報 > 無錫學(xué)院闞希獲國家專利權(quán)

      無錫學(xué)院闞希獲國家專利權(quán)

      買專利賣專利找龍圖騰,真高效! 查專利查商標(biāo)用IPTOP,全免費(fèi)!專利年費(fèi)監(jiān)控用IP管家,真方便!

      龍圖騰網(wǎng)獲悉無錫學(xué)院申請的專利一種基于RepFNet網(wǎng)絡(luò)與時空濾波的積雪覆蓋度監(jiān)測方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN119942367B

      龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-19發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202510414342.6,技術(shù)領(lǐng)域涉及:G06V20/13;該發(fā)明授權(quán)一種基于RepFNet網(wǎng)絡(luò)與時空濾波的積雪覆蓋度監(jiān)測方法是由闞希;張永宏;朱靈龍;曹海嘯;張紅燕設(shè)計研發(fā)完成,并于2025-04-03向國家知識產(chǎn)權(quán)局提交的專利申請。

      一種基于RepFNet網(wǎng)絡(luò)與時空濾波的積雪覆蓋度監(jiān)測方法在說明書摘要公布了:本發(fā)明涉及遙感圖像處理與氣象監(jiān)測技術(shù)領(lǐng)域,具體為一種基于RepFNet網(wǎng)絡(luò)的積雪覆蓋度監(jiān)測方法,包括:獲取FY?4A影像數(shù)據(jù)、Landsat衛(wèi)星影像數(shù)據(jù)和地理輔助數(shù)據(jù);構(gòu)建適用于深度學(xué)習(xí)訓(xùn)練的數(shù)據(jù)集;生成高分辨率的積雪覆蓋度圖像;構(gòu)建編碼器?解碼器架構(gòu)的RepFNet網(wǎng)絡(luò)模型,集成改進(jìn)的特征提取模塊、動態(tài)上采樣模塊及自適應(yīng)圖通道注意力模塊;確定最佳模塊組合和參數(shù)配置;使用ADAM優(yōu)化器結(jié)合動態(tài)學(xué)習(xí)率策略進(jìn)行模型訓(xùn)練;通過調(diào)整超參數(shù)和對比實(shí)驗(yàn),優(yōu)化模型性能;利用訓(xùn)練完成的RepFNet模型對研究區(qū)域進(jìn)行積雪覆蓋度的精準(zhǔn)反演,并結(jié)合時空濾波方法進(jìn)行去云處理,確保積雪監(jiān)測的準(zhǔn)確性和穩(wěn)定性。

      本發(fā)明授權(quán)一種基于RepFNet網(wǎng)絡(luò)與時空濾波的積雪覆蓋度監(jiān)測方法在權(quán)利要求書中公布了:1.一種基于RepFNet網(wǎng)絡(luò)與時空濾波的積雪覆蓋度監(jiān)測方法,其特征在于:所述方法包括: S100、獲取FY-4A影像數(shù)據(jù)和與所述影像數(shù)據(jù)時間不超過10分鐘的Landsat衛(wèi)星影像數(shù)據(jù),并對Landsat衛(wèi)星影像數(shù)據(jù)進(jìn)行波段融合和重采樣操作;獲取并拼接研究區(qū)域的數(shù)字高程模型數(shù)據(jù),并基于數(shù)字高程模型計算坡度、坡向信息,作為積雪覆蓋度估算的地理輔助數(shù)據(jù); S200、將預(yù)處理后的FY-4A影像數(shù)據(jù)、Landsat數(shù)據(jù)和地理輔助數(shù)據(jù),以Landsat數(shù)據(jù)作為基準(zhǔn)數(shù)據(jù)進(jìn)行空間配準(zhǔn),并裁剪成64×64像素的影像塊,以構(gòu)建適用于深度學(xué)習(xí)訓(xùn)練的數(shù)據(jù)集; S300、利用SNOMAP算法對Landsat數(shù)據(jù)進(jìn)行二值化積雪覆蓋度識別,并結(jié)合歸一化差分雪指數(shù)與氣象衛(wèi)星分辨率計算出積雪覆蓋度,生成高分辨率的積雪覆蓋度圖像,作為深度學(xué)習(xí)模型的標(biāo)簽數(shù)據(jù); S400、利用PyTorch框架,構(gòu)建并實(shí)現(xiàn)采用編碼器-解碼器架構(gòu)的RepFNet網(wǎng)絡(luò)模型;該模型集成改進(jìn)的特征提取模塊、動態(tài)上采樣模塊及自適應(yīng)圖通道注意力模塊; S500、基于對RepFNet網(wǎng)絡(luò)模型的深度優(yōu)化和參數(shù)調(diào)整確定最佳模塊組合和參數(shù)配置; S600、設(shè)計適用于FSC反演的新?lián)p失函數(shù),并使用ADAM優(yōu)化器結(jié)合動態(tài)學(xué)習(xí)率策略進(jìn)行模型訓(xùn)練;通過調(diào)整超參數(shù)和對比實(shí)驗(yàn),優(yōu)化模型性能;利用訓(xùn)練完成的RepFNet模型對研究區(qū)域進(jìn)行積雪覆蓋度的精準(zhǔn)反演,并結(jié)合時空濾波方法進(jìn)行去云處理,確保積雪監(jiān)測的準(zhǔn)確性和穩(wěn)定性; 其中,所述S400中的RepFNet網(wǎng)絡(luò)模型,包括:改進(jìn)的特征提取模塊、動態(tài)上采樣模塊和自適應(yīng)圖通道注意力模塊; 所述改進(jìn)的特征提取模塊用于提出局部方差驅(qū)動的動態(tài)殘差權(quán)重,實(shí)現(xiàn)模塊分支比例的自適應(yīng)調(diào)整; 所述動態(tài)上采樣模塊用于將特征提取模塊輸出的高維特征逐步恢復(fù)到與輸入數(shù)據(jù)相同的空間分辨率;它采用逐步上采樣的方式,通過卷積層和上采樣層的交替組合,逐步恢復(fù)特征圖的空間信息; 所述自適應(yīng)圖通道注意力模塊用于自適應(yīng)地調(diào)整特征通道的權(quán)重,同時捕捉特征之間的全局依賴關(guān)系; 其中,S400中:利用所述Pytorch框架構(gòu)建用于積雪覆蓋度反演任務(wù)的RepFNet網(wǎng)絡(luò)模型,包括:利用所述改進(jìn)的特征提取模塊RepVGG提取積雪覆蓋區(qū)域的紋理和光譜特征,同時利用殘差連接增強(qiáng)了模型的訓(xùn)練穩(wěn)定性和性能;后續(xù)基于此結(jié)構(gòu)增加解碼模塊,并引入動態(tài)上采樣模塊DySample進(jìn)行上采樣,通過自適應(yīng)圖通道注意力模塊AGCA來提高特征的表達(dá)能力; 其中,在所述改進(jìn)的特征提取模塊RepVGG中引入動態(tài)殘差權(quán)重,根據(jù)輸入特征圖的局部紋理復(fù)雜度動態(tài)調(diào)整分支權(quán)重,公式如下: ; ; 其中,的初始值設(shè)定為0.5,訓(xùn)練后自動優(yōu)化; 表示計算輸入數(shù)據(jù)的特征圖的局部放長,滑動窗口為3×3,用于表征區(qū)域紋理復(fù)雜度:當(dāng)屬于紋理復(fù)雜的高方差區(qū)域,接近于1,由恒等分支主導(dǎo),保留更多原始特征細(xì)節(jié);當(dāng)屬于平坦區(qū)域的低方差區(qū)域,接近于0,由1×1卷積主導(dǎo),增強(qiáng)特征提取能力; 同時選擇使用二維卷積對圖像進(jìn)行空間特征提取,在積雪覆蓋度標(biāo)簽真值到編碼器之前,使用步幅為2的卷積進(jìn)行下采樣;接下來的塊使用步幅為1的卷積來提取特征,將特征圖壓縮成低維表示;在輸出預(yù)測圖之前,對RepVGG解碼器的輸出運(yùn)用動態(tài)上采樣模塊DySample執(zhí)行上采樣操作,使其和轉(zhuǎn)置卷積層逐步恢復(fù)特征圖的空間分辨率,將編碼的特征信息恢復(fù)到與原圖像的空間分辨率,以生成高質(zhì)量的反演結(jié)果; 在所述動態(tài)上采樣模塊DySample中引入動態(tài)范圍因子,來增加偏移的靈活性;并通過雙線性插值得到輸出特征圖,其中X表示輸入,S表示采樣輸出圖; ; 之后再加入自適應(yīng)圖通道注意力模塊AGCA,以此聚合局部和全局上下文信息來提高特征的表達(dá)能力; 進(jìn)一步的,RepFNet網(wǎng)絡(luò)模塊主要是由兩部分組成; 第一部分是特征映射層,其中將特征圖維度轉(zhuǎn)換為1×1×C,C代表影像的通道數(shù),也代表自適應(yīng)圖通道注意力模塊AGCA中的特征頂點(diǎn)數(shù); 用線性嵌入函數(shù)作為特征映射層,捕捉包括重要的積雪區(qū)域和碎片化積雪的關(guān)鍵特征,并將所述關(guān)鍵特征信息進(jìn)行融合,以產(chǎn)生改進(jìn)的特征表示;其中,表示通過1×1卷積得到的權(quán)重矩陣; 第二部分是通過設(shè)計的注意力機(jī)制來動態(tài)調(diào)整特征的權(quán)重,最后權(quán)重作為通道權(quán)重映射回原始的特征圖;同時自適應(yīng)圖通道注意力模塊AGCA還運(yùn)用了瓶頸結(jié)構(gòu),使得其特征頂點(diǎn)對積雪的特征冗余更敏感; 所述S500中深度優(yōu)化和參數(shù)調(diào)整,包括: 設(shè)置網(wǎng)絡(luò)迭代次數(shù)的閾值為200次,確保模型在有限的迭代次數(shù)內(nèi)收斂,初始學(xué)習(xí)率設(shè)置為0.001,采用ADAM優(yōu)化器進(jìn)行模型參數(shù)更新; 每10次迭代后,學(xué)習(xí)率以衰減系數(shù)0.8動態(tài)調(diào)整,加速模型收斂,防止過擬合。

      如需購買、轉(zhuǎn)讓、實(shí)施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人無錫學(xué)院,其通訊地址為:214000 江蘇省無錫市錫山區(qū)錫山大道333號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

      免責(zé)聲明
      1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準(zhǔn)確性。
      2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當(dāng)日的職業(yè)理解,僅供參考使用,不能作為本公司承擔(dān)任何法律責(zé)任的依據(jù)或者憑證。
      主站蜘蛛池模板: 欧美做受视频播放| 国产精品无码一区二区三区电影| 久久精品蜜芽亚洲国产av| 国产亚洲一区二区三区成人| 日本亲近相奷中文字幕| 日韩精品人妻中文字幕| 精品无码国产一区二区三区AV| 久热这里有精彩视频免费| 午夜DY888国产精品影院| 国产成熟妇女性视频电影| 国产区精品视频自产自拍| 极品少妇无套内射视频| 亚洲欧美中文字幕日韩一区二区| 亚洲午夜久久久影院伊人| 国产精品午夜福利免费看| 亚洲一区二区中文字幕| 久久久久国产一级毛片高清版A| 久久99精品久久久大学生| 亚洲乱色熟女一区二区蜜臀| 亚洲欧洲日韩国内精品| 欧美丰满熟妇xxxx性ppx人交| 涩涩爱狼人亚洲一区在线| 国产精品一区二区性色av| 日夜啪啪一区二区三区| 亚洲顶级裸体av片| 东京热一精品无码av| 亚洲AV午夜电影在线观看| 久久久久久久久18禁秘| 久操热在线视频免费观看| 无码AV中文字幕久久专区| 国产精品一区二区性色av| 亚洲一区中文字幕人妻| 97精品伊人久久大香线蕉APP| 亚洲国产综合精品2020| 国产精品一区二区人人爽| 99福利一区二区视频| 欧美做受视频播放| 蜜臀视频在线观看一区二区| 不卡AV中文字幕手机看| 久久永久视频| 亚洲综合一区国产精品|