Polygon Mesh3D オブジェクトの表面を定義する頂点、エッジ、および面 (通常は三角形または四角形) で構成される 3D 表現。メッシュはコンピュータ グラフィックスの標準的な表現であり、さまざまな詳細レベルを持つ複雑なサーフェスを効率的に表現できます。
Voxel体積ピクセル - 2D ピクセルに相当する 3D。ボクセル表現は 3D 空間を立方体セルの規則的なグリッドに分割し、それぞれが占有率や色などのプロパティを保存します。処理は簡単ですが、高解像度ではメモリを大量に消費します。
UV Mapping2D 画像テクスチャを 3D モデルの表面に投影するプロセス。 UV 座標 (U と V は 2D テクスチャの軸) は、3D サーフェス上の各点が 2D テクスチャ イメージ上の点にどのようにマッピングされるかを定義します。
Normal Vector指定された点における表面に垂直なベクトル。サーフェス法線は、照明の計算、衝突検出、および 3D ジオメトリにおけるサーフェスの方向の理解に不可欠です。
Depth Map各ピクセル値がカメラからシーン内の対応する点までの距離を表す 2D 画像。深度マップは 2D 画像と 3D ジオメトリを橋渡しし、RGB-D カメラでキャプチャしたり、標準画像から推定したりできます。
Volumetric Renderingボリュームを通して光線を投射し、各光線に沿って色と不透明度の値を蓄積することによって 3D データをレンダリングする手法。 NeRF およびその他のニューラル レンダリング手法によって、学習された 3D 表現から画像を生成するために使用されます。
Signed Distance Function (SDF)空間内の任意の点から最も近い表面までの最短距離を返す数学関数。符号は、その点がオブジェクトの内側 (負) か外側 (正) かを示します。 SDF は、3D 形状の強力な暗黙的表現を提供します。
Multi-View Reconstruction異なる視点から撮影した複数の 2D 写真から 3D モデルを再構成するプロセス。手法は、古典的な Structure-from-Motion から NeRF のような最新のニューラル手法まで多岐にわたります。
CAD Modelコンピューター支援設計モデル - 設計ソフトウェアを使用して作成された 3D オブジェクトの正確な数学的表現。 CAD モデルはパラメトリック サーフェスとソリッド ジオメトリを使用し、エンジニアリングと製造で使用される正確な仕様を提供します。
Texture幾何学的複雑さを増すことなく、色、パターン、または粗さや反射率などの表面プロパティなどの視覚的な詳細を追加するために 3D モデルの表面に適用される 2D イメージ。
LiDAR光検出および測距 - ターゲットにレーザー光を照射し、反射されたパルスを測定することで距離を測定するリモート センシング テクノロジー。 LiDAR は、現実世界の環境の高解像度の点群を生成します。
Implicit Neural Representation3D 形状またはシーンを、メッシュやボクセルのような離散データ構造としてではなく、ニューラル ネットワークによってパラメータ化された連続関数として表現する方法。ネットワークは、座標を占有率や色などのプロパティにマッピングすることを学習します。
Shape Embedding学習された特徴空間における 3D 形状のコンパクトなベクトル表現で、オブジェクトの重要な幾何学的特性と意味論的特性をキャプチャします。形状の埋め込みにより、3D オブジェクトの類似性検索、分類、生成が可能になります。
Gaussian Splattingそれぞれが位置、共分散、不透明度、色を持つ 3D ガウス プリミティブのコレクションとしてシーンをモデル化する 3D シーン表現手法。効率的なラスター化により、複雑なシーンのリアルタイムで高品質なレンダリングが可能になります。
Photogrammetry写真から測定を行い、現実世界の物体や環境の 3D モデルを再構築する科学。最新の写真測量では、コンピューター ビジョン アルゴリズムを使用して、画像全体の特徴を自動的に照合し、3D 位置を三角測量します。
Marching Cubes3 次元のスカラー フィールド (符号付き距離関数やボクセル グリッドなど) からポリゴン メッシュ サーフェスを抽出するためのアルゴリズム。フィールド キューブをキューブごとに処理し、サーフェスがどのエッジと交差するかを判断し、それに応じて三角形を生成します。
Sketchfab3D、VR、AR コンテンツを公開、共有、発見するための主要なオンライン プラットフォーム。 Objaverse は主に、アーティスト、デザイナー、3D スキャン愛好家によってアップロードされた何百万もの 3D モデルをホストする Sketchfab からソースを得ています。
Ray Castingカメラから各ピクセルを通ってシーン内に入る光線を追跡することによって、3D シーン内のどのオブジェクトが表示されるかを決定する手法。レイ キャスティングは、NeRF およびボリューム レンダリングで使用され、各レイ パスに沿って密度と色をサンプリングします。
Text-to-3D Generation自然言語のテキスト記述から 3D オブジェクトまたはシーンを作成するタスク。 DreamFusion、Magic3D、Point-E などのメソッドは、テキスト条件付き拡散モデルと 3D 表現の組み合わせを使用して、テキスト プロンプトから 3D コンテンツを生成します。
Occupancy Network3D 座標を占有確率 (点がオブジェクトの内側か外側か) にマッピングするニューラル暗黙的表現。占有ネットワークは、離散的なボクセル グリッドを必要とせずに、任意の解像度で複雑な形状を表現できます。
Shape Completion単一の深度スキャンや部分的な点群などの部分的な観察から、オブジェクトの完全な 3D 形状を予測するタスク。 Objaverse や ShapeNet などの 3D データセットでトレーニングされた深層学習モデルは、欠落しているジオメトリを推測する方法を学習できます。
PointNet順序付けられていない点群データを直接処理するように設計された先駆的な深層学習アーキテクチャ。 PointNet は、共有多層パーセプトロンと対称最大プーリング操作を使用して順列不変性を実現し、点セットから直接 3D 分類とセグメンテーションを可能にします。
Mesh Decimation全体の形状と外観を維持しながら、3D メッシュ内のポリゴンの数を減らすプロセス。これは、リアルタイム レンダリング、Web 表示、および大規模なデータセットでの効率的なストレージ用に 3D モデルを最適化するために重要です。
Objaverse-XLObjaverse の拡張バージョンには、Sketchfab、Thingiverse、GitHub、スミソニアン博物館などの複数のプラットフォームから取得した 1,000 万を超える 3D オブジェクトが含まれており、最大のオープン 3D データセットとなっています。
DreamFusionGoogle によるテキストから 3D への生成方法。事前トレーニングされたテキストから画像への拡散モデルを使用して NeRF 表現を最適化し、3D トレーニング データなしでテキスト記述から 3D オブジェクトを作成できるようにします。
Zero-1-to-3単一の画像からオブジェクトの新しいビューを生成する方法。Objaverse データでトレーニングされ、たった 1 枚の写真から 3D 再構成が可能です。
ShapeNet55 の一般的なオブジェクト カテゴリをカバーする 51,300 個の固有の 3D モデルを含む、豊富に注釈が付けられた 3D 形状の大規模データセット。3D ディープ ラーニング研究のベンチマークとして広く使用されています。
Triplane Representation3 つの直交するフィーチャ面 (XY、XZ、YZ) を使用して 3D シーンをエンコードするコンパクトな 3D 表現。これにより、2D ニューラル ネットワーク バックボーンを使用した効率的な 3D 生成とレンダリングが可能になります。
Multi-View Stereoビュー全体で対応する点を見つけ、その 3D 位置を三角測量することにより、複数の重なり合う写真から 3D ジオメトリを再構成する手法。
Mesh Simplification3D メッシュの外観を維持しながら 3D メッシュのポリゴン数を減らすアルゴリズム。大規模な 3D データセットの効率的な保存とレンダリングに重要です。
Cap3DObjaverse で 3D オブジェクトの詳細なテキスト説明 (キャプション) を自動的に生成する方法。これにより、テキストベースの検索とテキストから 3D への生成トレーニングが可能になります。
Point-Eテキストの説明から 3D 点群を生成する OpenAI モデル。テキストと 3D のペアの大規模なデータセットでトレーニングされ、自然言語からの迅速な 3D コンテンツの作成を可能にします。
Radiance Field3D 座標と視線方向を色と濃度の値にマッピングし、任意の視点からのシーンの外観を表す連続関数。 NeRF は最もよく知られた実装です。
Digital Twinセンサー データでリアルタイムに更新される、物理オブジェクト、プロセス、またはシステムの仮想レプリカ。 Objaverse のような 3D データセットは、より現実的で多様なデジタル ツインの作成に役立ちます。
Implicit Surface明示的な頂点や面ではなく、連続関数のゼロレベルのセットとして定義される 3D サーフェス。 DeepSDF や占有ネットワークなどのニューラル インプリシット サーフェスがこのカテゴリに分類されます。
3D Reconstruction写真、深度マップ、センサー データなどの 2D 観察から 3D モデルを作成するプロセス。手法は、古典的な動きからの構造から現代の神経再構成技術まで多岐にわたります。
View Synthesisカメラでは捉えられなかった視点からシーンの新しいビューを生成します。 NeRF とガウス スプラッティングは、連続 3D シーン表現を学習することで、このタスクに優れています。
Texture Synthesisサンプル テクスチャを拡張するか、AI を使用してテキストの説明からテクスチャを作成することにより、3D サーフェスのテクスチャ イメージを自動的に生成します。生成された 3D オブジェクトのリアルなレンダリングにとって重要です。
Watertight Mesh穴や隙間のない完全な閉じたサーフェスを形成するポリゴン メッシュ。防水メッシュは、3D プリント、ブール演算、内部/外部クエリなどの多くの操作に必要です。
Level of Detail (LOD)見る距離に応じて異なるメッシュ解像度を使用して複雑さを管理する手法。カメラから遠いオブジェクトには簡素化されたメッシュが使用され、近くのオブジェクトには高詳細バージョンが使用されます。
Scene Graphオブジェクト、その属性 (色、材質、形状)、および関係 (上、隣、内部) を記述する 3D シーンの構造化表現。シーン グラフにより、セマンティックな理解と 3D 環境の生成が可能になります。
Neural Signed Distance Function任意の 3D 点から最も近い表面までの符号付き距離を出力するようにトレーニングされたニューラル ネットワークは、3D 形状の連続的かつ微分可能な暗黙的な表現を提供します。
NeRF in the WildNeRF の拡張機能。さまざまな照明、露出、一時的なオクルーダーを含む制約のない写真コレクションを処理し、観光客の写真から 3D 再構成を可能にします。