Unique3D – 清華大學團隊開源的圖像到3D生成模型

AI工具3個月前發佈新公告 AI管理員
11 0

Unique3D是什麼

Unique3D是由清華大學團隊開源的一個單張圖像到3D模型轉換的框架,通過結合多視圖擴散模型和法線擴散模型,以及一種高效的多級上採樣策略,能夠從單張圖片中快速生成具有高保真度和豐富紋理的3D網格。Unique3D結合ISOMER算法進一步確保了生成的3D模型在幾何和色彩上的一致性和準確性,僅需30秒即可完成從單視圖圖像到3D模型的轉換,生成效果優於InstantMesh、CRM、OpenLRM等圖像轉3D模型。

Unique3D – 清華大學團隊開源的圖像到3D生成模型

Unique3D的功能特色

  • 單圖像3D網格生成:Unique3D能夠從單個2D圖像自動生成3D網格模型,將平面圖像轉換爲具有空間深度的三維形態。
  • 多視角視圖生成:系統使用多視圖擴散模型生成同一物體的四個正交視圖圖像,這些視圖從不同方向捕捉物體的特徵,爲3D重建提供全面的視角信息。
  • 法線貼圖生成:Unique3D爲每個多視角圖像生成對應的法線貼圖,這些貼圖記錄了物體表面的朝向信息,對於後續的3D模型渲染至關重要,能夠模擬光線如何與表面相互作用,增強模型的真實感。
  • 多級分辨率提升:通過多級上採樣過程逐步提高生成圖像的分辨率,從低分辨率到高分辨率(如從256×256到2048×2048),使得3D模型的紋理和細節更加清晰。
  • 幾何和紋理細節整合:在重建過程中,Unique3D將顏色信息和幾何形狀緊密結合,確保生成的3D模型在視覺上與原始2D圖像保持一致,同時具有複雜的幾何結構和豐富的紋理細節。
  • 高保真度輸出:生成的3D模型在形狀、紋理和顏色上與輸入的2D圖像高度一致,無論是在幾何形態的準確性還是紋理的豐富性上都達到了高保真度的標準。

Unique3D – 清華大學團隊開源的圖像到3D生成模型

Unique3D的官網入口

  • 官方項目主頁:https://wukailu.github.io/Unique3D/
  • GitHub代碼庫:https://github.com/AiuniAI/Unique3D
  • 在線Demo體驗:https://u45213-bcf9-ef67553e.westx.seetacloud.com:8443/
  • Hugging Face Demo:https://huggingface.co/spaces/Wuvin/Unique3D
  • 模型權重下載:https://huggingface.co/spaces/Wuvin/Unique3D/tree/main/ckpt
  • arXiv技術論文:https://arxiv.org/abs/2405.20343

Unique3D的技術原理

Unique3D – 清華大學團隊開源的圖像到3D生成模型

  • 多視圖擴散模型:利用擴散模型從單視圖圖像生成多視角(通常是四個正交視圖)圖像。這些模型通過訓練學習2D圖像的分佈,並將其擴展到3D空間,生成具有不同視角的圖像。
  • 法線擴散模型:與多視圖擴散模型協同工作,爲每個生成的視圖圖像生成對應的法線貼圖,這些法線貼圖包含了表面法線的方向信息,對後續的3D重建至關重要。
  • 多級上採樣過程:採用多級上採樣策略逐步提高生成圖像的分辨率。初始生成的圖像分辨率較低,通過上採樣技術逐步提升至更高的分辨率,以獲得更清晰的細節。
  • ISOMER網格重建算法:一種高效的網格重建算法,用於從高分辨率的多視圖RGB圖像和法線圖中重建3D網格。ISOMER算法包括:
    • 初始網格估計:快速生成3D對象的粗糙拓撲結構和初始網格。
    • 粗糙到精細的網格優化:通過迭代優化過程,逐步改善網格的形狀,使其更接近目標形狀。
    • 顯式目標優化:爲每個頂點指定一個優化目標,解決由於視角不一致導致的問題,提高几何細節的準確性。
  • 顏色和幾何先驗整合:在網格重建過程中,將顏色信息和幾何形狀的信息整合到網格結果中,以提高最終模型的視覺真實性和準確性。
  • 顯式目標(ExplicitTarget):爲每個頂點定義一個優化目標,這是一個從頂點集合到顏色集合的映射函數,用於指導頂點顏色的優化,提高模型的多視圖一致性。
  • 擴展正則化(Expansion Regularization):在優化過程中使用的一種技術,通過在頂點的法線方向上移動頂點來避免表面塌陷,確保模型的完整性。
  • 顏色補全算法:針對不可見區域的顏色補全,使用一種高效的算法,將可見區域的顏色平滑地傳播到不可見區域,確保整個模型顏色的一致性。
© 版權聲明

相關文章

暫無評論

暫無評論...