“ 3Dアセットの作成と操作において、すべての人の想像力を実現します。”
- 2025年1月21日: 💬 私たちのウェブサイト Hunyuan3D Studio でエキサイティングな3D生成を楽しんでください!
- 2025年1月21日: 💬 Hunyuan3D 2.0 の推論コードと事前学習モデルをリリースしました。
- 2025年1月21日: 💬 Hunyuan3D 2.0をリリースしました。 huggingface space や 公式サイト でお試しください!
Hunyuan3D 2.0は、高解像度のテクスチャ付き3Dアセットを生成するための高度な大規模3D合成システムです。 このシステムには、2つの基盤コンポーネントが含まれています:大規模形状生成モデル - Hunyuan3D-DiT、および大規模 テクスチャ合成モデル - Hunyuan3D-Paint。 形状生成モデルは、スケーラブルなフローに基づく拡散トランスフォーマーに基づいて構築されており、与えられた条件画像に適切に 一致するジオメトリを作成することを目的としており、下流のアプリケーションのための堅固な基盤を提供します。 テクスチャ合成モデルは、強力なジオメトリおよび拡散の事前知識を活用して、生成されたまたは手作りのメッシュのために高解像度で鮮やかな テクスチャマップを生成します。 さらに、Hunyuan3D-Studioを構築しました。これは、3Dアセットの再作成プロセスを簡素化する多用途で使いやすい制作プラットフォームです。 プロフェッショナルおよびアマチュアユー���ーの両方がメッシュを効率的に操作したり、アニメーション化したりすることができます。 私たちはモデルを体系的に評価し、Hunyuan3D 2.0が以前の最先端モデルを上回ることを示しました。 オープンソースモデルとクローズドソースモデルの両方で、ジオメトリの詳細、条件の整合性、テクスチャの品質などの点で優れています。
Hunyuan3D 2.0は、ベアメッシュの作成から始まり、そのメッシュのテクスチャマップの合成に至る2段階の生成パイプライン���特徴としています。 この戦略は、形状とテクスチャの生成の難しさを分離するのに効果的であり、生成されたメッシュまたは手作りのメッシュのテクスチャリングに柔軟性を提供します。
Hunyuan3D 2.0を他のオープンソースおよびクローズドソースの3D生成方法と比較して評価しました。 数値結果は、Hunyuan3D 2.0が生成されたテクスチャ付き3Dアセットの品質と条件の遵守能力においてすべてのベースラインを上回っていることを示しています。
モデル | CMMD(⬇) | FID_CLIP(⬇) | FID(⬇) | CLIP-score(⬆) |
---|---|---|---|---|
トップオープンソースモデル1 | 3.591 | 54.639 | 289.287 | 0.787 |
トップクローズドソースモデル1 | 3.600 | 55.866 | 305.922 | 0.779 |
トップクローズドソースモデル2 | 3.368 | 49.744 | 294.628 | 0.806 |
トップクローズドソースモデル3 | 3.218 | 51.574 | 295.691 | 0.799 |
Hunyuan3D 2.0 | 3.193 | 49.165 | 282.429 | 0.809 |
Hunyuan3D 2.0の生成結果:
モデル | 日付 | Huggingface |
---|---|---|
Hunyuan3D-DiT-v2-0 | 2025-01-21 | ダウンロード |
Hunyuan3D-Paint-v2-0 | 2025-01-21 | ダウンロード |
次の手順に従って、コードまたはGradioアプリを使用してHunyuan3D 2.0を使用できます。
公式サイトからPytorchをインストールしてください。次に、他の必要なものを以下の方法でインストールします。
pip install -r requirements.txt
# for texture
cd hy3dgen/texgen/custom_rasterizer
python3 setup.py install
cd hy3dgen/texgen/differentiable_renderer
python3 setup.py install
形状生成モデル - Hunyuan3D-DiTおよびテクスチャ合成モデル - Hunyuan3D-Paintを使用するためのdiffusersのようなAPIを設計しました。
Hunyuan3D-DiTにアクセスするには、次のようにします:
from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2')
mesh = pipeline(image='assets/demo.png')[0]
出力メッシュはtrimeshオブジェクトであり、glb/obj(または他の形式)ファイルに保存できます。
Hunyuan3D-Paintの場合は、次のようにします:
from hy3dgen.texgen import Hunyuan3DPaintPipeline
from hy3dgen.shapegen import Hunyuan3DDiTFlowMatchingPipeline
# まずメッシュを生成しましょう
pipeline = Hunyuan3DDiTFlowMatchingPipeline.from_pretrained('tencent/Hunyuan3D-2')
mesh = pipeline(image='assets/demo.png')[0]
pipeline = Hunyuan3DPaintPipeline.from_pretrained('tencent/Hunyuan3D-2')
mesh = pipeline(mesh, image='assets/demo.png')
より高度な使用法については、minimal_demo.pyを参照してください。例えば、テキストから3Dや手作りメッシュのテクスチャ生成などです。
次の方法で自分のコンピュータでGradioアプリをホストすることもできます:
python3 gradio_app.py
自分でホストしたくない場合は、Hunyuan3Dを訪れてすぐに使用してください。
- 推論コード
- モデルチェックポイント
- 技術報告書
- ComfyUI
- TensorRTバージョン
このリポジトリが役に立った場合は、以下の方法で報告書を引用してください:
@misc{hunyuan3d22025tencent,
title={Hunyuan3D 2.0: Scaling Diffusion Models for High Resolution Textured 3D Assets Generation},
author={Tencent Hunyuan3D Team},
year={2025},
eprint={2501.12202},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
@misc{yang2024hunyuan3d,
title={Hunyuan3D 1.0: A Unified Framework for Text-to-3D and Image-to-3D Generation},
author={Tencent Hunyuan3D Team},
year={2024},
eprint={2411.02293},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
DINOv2, Stable Diffusion, FLUX, diffusers, HuggingFace, CraftsMan3D, and Michelangelo リポジトリの貢献者に感謝します。