• <form id="tsg3z"></form>

    <thead id="tsg3z"></thead>
      <abbr id="tsg3z"><table id="tsg3z"><nav id="tsg3z"></nav></table></abbr>

    1. 男女性杂交内射女bbwxz,亚洲欧美人成电影在线观看,中文字幕国产日韩精品,欧美另类精品xxxx人妖,欧美日韩精品一区二区三区高清视频,日本第一区二区三区视频,国产亚洲精品中文字幕,gogo无码大胆啪啪艺术
      Document
      拖動滑塊完成拼圖
      個人中心

      預訂訂單
      服務訂單
      發布專利 發布成果 人才入駐 發布商標 發布需求

      在線咨詢

      聯系我們

      龍圖騰公眾號
      首頁 專利交易 IP管家助手 科技果 科技人才 科技服務 國際服務 商標交易 會員權益 需求市場 關于龍圖騰
       /  免費注冊
      到頂部 到底部
      清空 搜索
      當前位置 : 首頁 > 專利喜報 > 武漢唯理科技有限公司王家奎獲國家專利權

      武漢唯理科技有限公司王家奎獲國家專利權

      買專利賣專利找龍圖騰,真高效! 查專利查商標用IPTOP,全免費!專利年費監控用IP管家,真方便!

      龍圖騰網獲悉武漢唯理科技有限公司申請的專利基于Hashgrid的神經輻射場及二維體密度分割的建模方法獲國家發明授權專利權,本發明授權專利權由國家知識產權局授予,授權公告號為:CN116188723B 。

      龍圖騰網通過國家知識產權局官網在2025-08-12發布的發明授權授權公告中獲悉:該發明授權的專利申請號/專利號為:202211676440.X,技術領域涉及:G06T17/20;該發明授權基于Hashgrid的神經輻射場及二維體密度分割的建模方法是由王家奎;朱小鵬設計研發完成,并于2022-12-26向國家知識產權局提交的專利申請。

      基于Hashgrid的神經輻射場及二維體密度分割的建模方法在說明書摘要公布了:本發明公開了基于Hashgrid的神經輻射場及二維體密度分割的建模方法,包括如下建模步驟:步驟1、首先通過普通rgb相機采集多角度的人體圖像,步驟2、將已采集到的圖像使用colmap進行相機的內參標定以及外參標定,步驟3、對采集到的圖像進行像素分割和圖像預處理,去除掉圖像待重建以外的背景區域,本發明采集待重建人體的各個角度圖像,并設定相鄰圖像之間的重疊區域,剔除背景,降低干擾,通過多次迭代訓練,將渲染由連續改為離散形式,能夠快速進行三維人體建模,通過將采樣點代入計算,增加渲染效果,使用u?net分割體密度切片圖,分割同時去除噪點,精準重建人體,有效的提升建模效率。

      本發明授權基于Hashgrid的神經輻射場及二維體密度分割的建模方法在權利要求書中公布了:1.基于Hashgrid的神經輻射場及二維體密度分割的建模方法,其特征在于:包括如下建模步驟: 步驟1、首先通過普通rgb相機采集多角度的人體圖像; 步驟2、將已采集到的圖像使用colmap進行相機的內參標定以及外參標定; 步驟3、對采集到的圖像進行像素分割和圖像預處理,去除掉圖像待重建以外的背景區域,將被去除掉的背景區域的alpha通道設置為0,每張圖像僅保留待渲染主體區域; 步驟4、使用前期預處理好后的數據利用基于Hashgrid的神經輻射場進行待重建區域的視角合成,渲染出整個待重建人體; 步驟5、將基于Hashgrid的神經輻射場所得到的體密度進行切片; 步驟6、將切片后的體密度進行像素分割,并對計算分割后的mask外輪廓坐標; 步驟7、按照順序空間歸一化所有外輪廓像素坐標,并將所有像素組合重建為待重建人體的三維模型; 所述步驟5中,經過多次迭代訓練后,提取神經輻射場中的體密度,并對該體密度按照重建模型的質量要求進行切片,采用classicalvolumerendering的方法在5維神經輻射場中對體密度進行渲染,體密度表示為σx,預設的相機光線表示為rt=o+td,則在渲染中的目標顏色Cr在最近邊界tn與最遠邊界tf中表達為: 且 將連續的體密度渲染方程改為離散的形式進行計算,其表達為: 且 其中δi=ti+1-ti表示為鄰近樣本之間的距離; 連續渲染方程在進行均勻分段后即改寫為: 其中 然后對每段內進行均勻采樣: 在指定區域內給定體素顏色與體密度,那在該區域內采樣點的近視值則表示為: 整個工作區域中,固定視線以下的體素都為分段函數則其近似函數繼續表示為: 采用兩級網絡進行訓練,首先粗略訓練出大致形狀,再進行微調,在粗訓練階段先分層采樣到Nc個點,其渲染方程表示為: 其中wi=Ti1-exp-σiδi; 隨后將wi進行歸一化得到其分段函數,再通過其逆變換生成Nf個點,將這些點與上文分層采樣得到的點一起進行精渲染,通過這兩次采樣,最后將損失函數表現如下: 此外還需將位置向量x與方向向量d轉化為高頻變量,其位置編碼表示為: γp=sin20πp,cos20πp,...,sin2L-1πp,cos2L-1πp; 最后將位置x,y,z與方向θ,φ作為輸入即生成高精度渲染效果。

      如需購買、轉讓、實施、許可或投資類似專利技術,可聯系本專利的申請人或專利權人武漢唯理科技有限公司,其通訊地址為:430000 湖北省武漢市東湖新技術開發區大學園路15號附1號華中科技大學科技園現代服務業示范基地二期4棟706;或者聯系龍圖騰網官方客服,聯系龍圖騰網可撥打電話0551-65771310或微信搜索“龍圖騰網”。

      免責聲明
      1、本報告根據公開、合法渠道獲得相關數據和信息,力求客觀、公正,但并不保證數據的最終完整性和準確性。
      2、報告中的分析和結論僅反映本公司于發布本報告當日的職業理解,僅供參考使用,不能作為本公司承擔任何法律責任的依據或者憑證。
      主站蜘蛛池模板: 久草热大美女黄色片免费看| 亚洲午夜精品国产电影在线观看 | 少妇激情a∨一区二区三区| 高清无码18| 亚洲国产精品综合久久2007| 四虎永久地址WWW成人久久| 日韩精品中文字幕第二页| 国产国产人免费人成免费| 久久综合亚洲色一区二区三区| 99中文字幕精品国产| 国产高清无遮挡内容丰富| 精品国产成人午夜福利| 亚洲欧美日韩国产精品一区二区| 麻豆国产成人AV在线播放| 婷婷99视频精品全部在线观看| 国内自拍偷拍福利视频看看| 四虎在线播放亚洲成人| 亚洲色成人网站www永久下载| 二区中文字幕在线观看| 久久精品午夜视频| 野花社区www视频日本| 久久久久久久久毛片精品| 欧美牲交a欧美牲交aⅴ图片| a级亚洲片精品久久久久久久| 日本欧美大码a在线观看| 国产成人精品1024免费下载| 四虎国产精品永久地址99| 色婷婷日日躁夜夜躁| 亚洲中文字幕精品久久久久久动漫| 国产亚洲av日韩精品熟女| 丰满无码人妻热妇无码区| 国产午夜福利高清在线观看| 在线精品国产成人综合| 色噜噜在线视频免费观看| 亚洲伊人久久综合影院| 国产av一区二区亚洲精品| 人妻影音先锋啪啪AV资源| 九九热在线视频中文字幕| 2020久久国产综合精品swag| 成人区人妻精品一区二区| 亚洲精品久综合蜜|