• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務(wù)訂單
      發(fā)布專利 發(fā)布成果 人才入駐 發(fā)布商標 發(fā)布需求

      在線咨詢

      聯(lián)系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務(wù) 國際服務(wù) 商標交易 會員權(quán)益 需求市場 關(guān)于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 蘇州大學楊劍宇獲國家專利權(quán)

      蘇州大學楊劍宇獲國家專利權(quán)

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監(jiān)控用IP管家,真方便!

      龍圖騰網(wǎng)獲悉蘇州大學申請的專利一種人體動作預測方法獲國家發(fā)明授權(quán)專利權(quán),本發(fā)明授權(quán)專利權(quán)由國家知識產(chǎn)權(quán)局授予,授權(quán)公告號為:CN114495277B

      龍圖騰網(wǎng)通過國家知識產(chǎn)權(quán)局官網(wǎng)在2025-08-12發(fā)布的發(fā)明授權(quán)授權(quán)公告中獲悉:該發(fā)明授權(quán)的專利申請?zhí)?專利號為:202210099358.9,技術(shù)領(lǐng)域涉及:G06V40/20;該發(fā)明授權(quán)一種人體動作預測方法是由楊劍宇;邢慧琴;黃瑤設(shè)計研發(fā)完成,并于2022-01-27向國家知識產(chǎn)權(quán)局提交的專利申請。

      一種人體動作預測方法在說明書摘要公布了:本發(fā)明提供一種人體動作預測方法,包括將人體動作序列樣本劃分為歷史序列、待預測序列和未來序列,將歷史序列和未來序列輸入運動特征提取模塊,提取并輸入歷史運動特征和未來運動特征預設(shè)的動作預測模塊進行訓練,構(gòu)造雙流動作預測網(wǎng)絡(luò);將雙流動作預測網(wǎng)絡(luò)和分類模塊加入預設(shè)的字典模塊,構(gòu)建雙流信息儲存網(wǎng)絡(luò);通過運動特征提取模塊、分類模塊、動作預測模塊和儲存后的字典模塊,構(gòu)建動作預測測試網(wǎng)絡(luò);將歷史運動特征輸入動作預測測試網(wǎng)絡(luò)的分類模塊,得到動作類別,在動作類別對應的存儲字典中,查找未來運動特征;將歷史運動特征和未來運動特征相加,輸入動作預測測試網(wǎng)絡(luò)的動作預測模塊,實現(xiàn)動作預測。

      本發(fā)明授權(quán)一種人體動作預測方法在權(quán)利要求書中公布了:1.一種人體動作預測方法,其特征在于,包括: 步驟1:將預設(shè)的人體動作序列樣本劃分為歷史序列、待預測序列和未來序列,并將歷史序列和未來序列輸入預設(shè)的運動特征提取模塊,提取歷史運動特征和未來運動特征;其中, 所述運動特征提取模塊中包括速度計算模塊,加速度計算模塊,級別劃分模塊,融合模塊,時空卷積模塊,特征融合模塊和特征級聯(lián)模塊; 步驟2:將歷史運動特征和未來運動特征輸入預設(shè)的動作預測模塊進行訓練,構(gòu)造雙流動作預測網(wǎng)絡(luò); 步驟3:將歷史序列和未來序列輸入雙流動作預測網(wǎng)絡(luò),訓練雙流動作預測網(wǎng)絡(luò)至收斂; 步驟4:通過經(jīng)過訓練的運動特征提取模塊,提取歷史運動特征輸入預設(shè)的分類模塊進行動作分類,訓練分類模塊至收斂; 步驟5:將經(jīng)過訓練的雙流動作預測網(wǎng)絡(luò)和分類模塊結(jié)合并加入預設(shè)的字典模塊,構(gòu)建雙流信息儲存網(wǎng)絡(luò);其中, 所述雙流信息儲存網(wǎng)絡(luò)的字典模塊儲存每一種動作的歷史運動特征和未來運動特征的對應關(guān)系; 步驟6:通過經(jīng)過訓練的運動特征提取模塊、分類模塊、動作預測模塊和儲存后的字典模塊,構(gòu)建動作預測測試網(wǎng)絡(luò); 步驟7:將歷史運動特征輸入動作預測測試網(wǎng)絡(luò)的分類模塊,得到動作類別,在所述動作類別對應的存儲字典中,查找該歷史運動特征對應的未來運動特征; 步驟8:將測試的人體動作序列樣本的歷史運動特征和查找得到的未來運動特征相加,輸入動作預測測試網(wǎng)絡(luò)的動作預測模塊,實現(xiàn)動作預測; 其中,所述步驟1,包括: 步驟11:通過預設(shè)的若干幀人體骨架樣本,構(gòu)建人體動作序列樣本: V=[X1,…,Xt,…,XN] 其中,V代表人體動作序列樣本,t代表人體動作序列樣本的第t個幀數(shù),t∈[1,N],N代表人體動作序列樣本的總幀數(shù),Xt∈RM×D,RM×D代表人體動作序列樣本V的第t幀人體骨架的矩陣,M代表第t幀人體骨架包含的關(guān)鍵點個數(shù);D代表第t幀人體骨架中每個關(guān)鍵點的向量表示的維數(shù); 步驟12:將人體動作序列樣本V劃分為歷史序列Vhistory、待預測序列Vpredict和未來序列Vfuture;其中, 其中,Vhistory代表歷史序列,h代表關(guān)于歷史序列的時間索引,h∈[1,Thistory],Thistory∈[1,Tpredict],Thistory代表歷史序列的總幀數(shù);Xh∈RM×D,Xh代表歷史序列的第h幀人體骨架的矩陣,X1代表歷史序列的第1幀人體骨架的矩陣,XTjistory代表歷史序列的最后1幀人體骨架的矩陣;Vpredict代表待預測序列,p代表關(guān)于待預測序列的時間索引,p∈[Thistory+1,Thistory+Tpredict],Tpredict代表待預測序列的總幀數(shù),Tpredict∈[Tpredict,Tfuture];Xp∈RM×D,Xp代表待預測序列的第p幀人體骨架的矩陣;代表歷史序列的第1幀人體骨架的矩陣;代表歷史序列的最后1幀人體骨架的矩陣;Vfuture代表未來序列,f代表關(guān)于歷史序列的時間索引,f∈[Thistory+Tpredict+1,Thistory+Tpredict+Tfuture],Tfuture代表未來序列的總幀數(shù),Tfuture∈[Tfuture,N];Xf∈RM×D,Xf代表未來序列的第f幀人體骨架的矩陣;代表未來序列的第1幀人體骨架的矩陣,代表未來序列的最后1幀人體骨架的矩陣,N=Thistory+Tpredict+Tfuture; 步驟13:通過速度計算模塊,對歷史序列進行速度特征提取,確定歷史速度序列; 其中,Vhistory_v代表歷史速度序列,vel1代表歷史速度序列中的第1幀骨架的矩陣,代表未來速度序列中的第1幀骨架的矩陣,為歷史速度序列Vhistory_v中第h幀骨架的矩陣表示,h代表關(guān)于歷史序列的時間索引,Xh代表歷史序列的第h幀人體骨架的矩陣,Xh-1代表歷史序列的第h-1幀人體骨架的矩陣,代表歷史速度序列中的第Thistory幀骨架的矩陣,Thistory代表歷史序列的總幀數(shù); 步驟14:通過加速度計算模塊,對所述歷史速度序列進行計算,確定歷史加速度序列: 其中,Vhistory_a代表歷史加速度序列,acl1代表歷史加速度序列中的第1幀骨架的矩陣,aclh代表歷史加速度序列中的第h幀骨架的矩陣, 代表歷史加速度序列中的第Thistory幀骨架的矩陣; 步驟15:通過級別劃分模塊,分別將所述歷史序列進行級別劃分,劃分為低級歷史序列,中級歷史序列和高級歷史序列; 其中,Vhp_1代表低級歷史序列,Vhistory代表歷史序列,Vhp_2代表歷史序列輸入第一池化層得到的關(guān)于人體骨架的中級歷史序列,midh∈RW×W,RW×D代表關(guān)于人體骨架的中級歷史序列的第h幀人體骨架的矩陣,W和D代表中級歷史序列中第h幀骨架的矩陣的行數(shù)和列數(shù),Vhp_3代表高級歷史序列,Vhp_3是通過歷史序列輸入第二池化層得到的關(guān)于人體骨架的高級歷史序列,highh∈RU×D,U和D分別對應高級歷史序列中第h幀骨架的矩陣的行數(shù)和列數(shù); 步驟16:將低級歷史序列,中級歷史序列和高級歷史序列依次傳輸至對應的時空卷積模塊1、融合模塊1、時空卷積模塊2、融合模塊2、時空卷積模塊3和時空卷積模塊4,生成對應的歷史融合特征; 步驟17:將未來序列傳輸?shù)讲襟E13-步驟15,生成對應的未來融合特征; 步驟18:通過所述歷史融合特征和未來融合特征,生成歷史運動特征和未來運動特征; 其中,所述步驟2,包括: 步驟21:將歷史運動特征和未來運動特征相加,獲取聯(lián)合運動特征; H=Hfuture+Hhistory 其中,H表示聯(lián)合運動特征; 步驟22:將聯(lián)合運動特征H、人體動作序列樣本V中的第Thistory-2幀人體骨架第Thistory-1幀人體骨架和第Thistory幀人體骨架輸入預設(shè)的循環(huán)神經(jīng)網(wǎng)絡(luò),計算待預測序列; 步驟23:對人體動作序列樣本V的人體骨架進行遞增并重復步驟22,確定待預測序列: p∈[Thistory+1,Thistory+Tpredict], 其中,為計算所得的待預測序列的第p幀骨架的矩陣表示; 步驟24:通過人體動作序列樣本、運動特征提取模塊和動作預測模塊,構(gòu)造雙流動作預測網(wǎng)絡(luò);其中, 所述雙流動作預測網(wǎng)絡(luò)的損失函數(shù)L1為: 其中,||||1表示1范數(shù),是第n個預測序列的真實值,是動作預測模塊的輸出, 代表動作預測模塊輸出的第n個預測序列樣本。

      如需購買、轉(zhuǎn)讓、實施、許可或投資類似專利技術(shù),可聯(lián)系本專利的申請人或?qū)@麢?quán)人蘇州大學,其通訊地址為:215131 江蘇省蘇州市相城區(qū)濟學路8號;或者聯(lián)系龍圖騰網(wǎng)官方客服,聯(lián)系龍圖騰網(wǎng)可撥打電話0551-65771310或微信搜索“龍圖騰網(wǎng)”。

      免責聲明
      1、本報告根據(jù)公開、合法渠道獲得相關(guān)數(shù)據(jù)和信息,力求客觀、公正,但并不保證數(shù)據(jù)的最終完整性和準確性。
      2、報告中的分析和結(jié)論僅反映本公司于發(fā)布本報告當日的職業(yè)理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據(jù)或者憑證。
      主站蜘蛛池模板: 国产黄色一区二区三区四区| 国产片AV国语在线观看手机版| 美日韩在线视频一区二区三区 | 精品国产自线午夜福利| 国产精品高清一区二区三区| 国产一级黄色片在线观看| 天堂资源在线| 亚欧洲乱码视频在线观看| 亚洲国产超清无码专区| 亚洲激情一区二区三区视频| 国产精品污一区二区三区| 亚洲国产精品成人无码区| 国产又爽又黄又爽又刺激| 国产在线精品福利91香蕉| 粉嫩国产一区二区三区在线| 四虎国产精品永久在线| 人妻丝袜中文无码AV影音先锋专区| 亚洲av日韩av永久无码电影| 午夜精品亚洲一区二区三区| 国产精品二区中文字幕| 色色97| 性视频一区| 国产片AV国语在线观看手机版| 成人无码一区二区三区网站| 亚洲美女厕所偷拍美女尿尿| gogo无码大胆啪啪艺术| 手机无码人妻一区二区三区免费| 国产91色综合久久免费| 成年女人免费碰碰视频| 日本55丰满熟妇厨房伦| 成人av天堂网在线观看| 亚洲最大成人在线播放| 最新成免费人久久精品| 国内精品久久黄色三级乱| 亚洲av无码精品色午夜蛋壳| 午夜福利看片在线观看| 99久久精品国产熟女拳交| 国产盗摄xxxx视频xxxx| 99RE6在线观看国产精品| 亚洲av免费看一区二区| 国产中文字幕精品喷潮|