Polygon MeshUna representación 3D que consta de vértices, aristas y caras (normalmente triángulos o cuadrángulos) que definen la superficie de un objeto 3D. Las mallas son la representación estándar en gráficos por computadora y pueden representar de manera eficiente superficies complejas con distintos niveles de detalle.
VoxelUn píxel volumétrico: el equivalente 3D de un píxel 2D. Las representaciones de vóxeles dividen el espacio 3D en una cuadrícula regular de celdas cúbicas, cada una de las cuales almacena propiedades como ocupación o color. Fácil de procesar pero requiere mucha memoria a altas resoluciones.
UV MappingEl proceso de proyectar una textura de imagen 2D sobre la superficie de un modelo 3D. Las coordenadas UV (U y V son los ejes de la textura 2D) definen cómo cada punto de la superficie 3D se asigna a un punto de la imagen de textura 2D.
Normal VectorUn vector perpendicular a una superficie en un punto dado. Las normales de superficie son esenciales para los cálculos de iluminación, la detección de colisiones y la comprensión de la orientación de la superficie en geometría 3D.
Depth MapUna imagen 2D donde cada valor de píxel representa la distancia desde la cámara al punto correspondiente en la escena. Los mapas de profundidad unen imágenes 2D y geometría 3D y pueden capturarse mediante cámaras RGB-D o estimarse a partir de imágenes estándar.
Volumetric RenderingUna técnica para representar datos 3D proyectando rayos a través de un volumen y acumulando valores de color y opacidad a lo largo de cada rayo. Utilizado por NeRF y otros métodos de renderizado neuronal para generar imágenes a partir de representaciones 3D aprendidas.
Signed Distance Function (SDF)Una función matemática que devuelve la distancia más corta desde cualquier punto en el espacio a la superficie más cercana, con el signo que indica si el punto está dentro (negativo) o fuera (positivo) del objeto. Los SDF proporcionan una poderosa representación implícita de formas 3D.
Multi-View ReconstructionEl proceso de reconstruir un modelo 3D a partir de múltiples fotografías 2D tomadas desde diferentes puntos de vista. Las técnicas van desde la clásica estructura a partir del movimiento hasta métodos neuronales modernos como NeRF.
CAD ModelModelo de diseño asistido por computadora: una representación matemática precisa de un objeto 3D creado utilizando software de diseño. Los modelos CAD utilizan superficies paramétricas y geometría sólida, ofreciendo especificaciones exactas utilizadas en ingeniería y fabricación.
TextureUna imagen 2D aplicada a la superficie de un modelo 3D para agregar detalles visuales como color, patrones o propiedades de la superficie como rugosidad y reflectividad, sin aumentar la complejidad geométrica.
LiDARDetección y alcance de luz: una tecnología de detección remota que mide distancias iluminando un objetivo con luz láser y midiendo los pulsos reflejados. LiDAR produce nubes de puntos de alta resolución de entornos del mundo real.
Implicit Neural RepresentationUn método para representar formas o escenas 3D como funciones continuas parametrizadas por redes neuronales, en lugar de estructuras de datos discretas como mallas o vóxeles. La red aprende a asignar coordenadas a propiedades como ocupación o color.
Shape EmbeddingUna representación vectorial compacta de una forma 3D en un espacio de características aprendido, que captura las propiedades geométricas y semánticas esenciales del objeto. Las incrustaciones de formas permiten la búsqueda, clasificación y generación de objetos 3D por similitudes.
Gaussian SplattingUna técnica de representación de escenas 3D que modela una escena como una colección de primitivas gaussianas 3D, cada una con posición, covarianza, opacidad y color. Permite la representación de escenas complejas en tiempo real y de alta calidad mediante una rasterización eficiente.
PhotogrammetryLa ciencia de realizar mediciones a partir de fotografías para reconstruir modelos 3D de objetos o entornos del mundo real. La fotogrametría moderna utiliza algoritmos de visión por computadora para hacer coincidir automáticamente características en imágenes y triangular posiciones 3D.
Marching CubesUn algoritmo para extraer una superficie de malla poligonal de un campo escalar tridimensional (como una función de distancia con signo o una cuadrícula de vóxeles). Procesa el campo cubo por cubo, determinando qué bordes cruza la superficie y genera triángulos en consecuencia.
SketchfabUna importante plataforma en línea para publicar, compartir y descubrir contenido 3D, VR y AR. Objaverse se obtuvo principalmente de Sketchfab, que alberga millones de modelos 3D subidos por artistas, diseñadores y entusiastas del escaneo 3D.
Ray CastingUna técnica para determinar qué objetos en una escena 3D son visibles al rastrear los rayos de la cámara a través de cada píxel en la escena. La fundición de rayos se utiliza en NeRF y renderizado volumétrico para muestrear la densidad y el color a lo largo de cada trayectoria del rayo.
Text-to-3D GenerationLa tarea de crear un objeto o escena 3D a partir de una descripción de texto en lenguaje natural. Métodos como DreamFusion, Magic3D y Point-E utilizan combinaciones de modelos de difusión condicionados por texto y representaciones 3D para generar contenido 3D a partir de indicaciones de texto.
Occupancy NetworkUna representación neuronal implícita que asigna una coordenada 3D a una probabilidad de ocupación (ya sea que el punto esté dentro o fuera de un objeto). Las redes de ocupación pueden representar formas complejas con resolución arbitraria sin requerir cuadrículas de vóxeles discretas.
Shape CompletionLa tarea de predecir la forma 3D completa de un objeto a partir de una observación parcial, como un escaneo de profundidad único o una nube de puntos parcial. Los modelos de aprendizaje profundo entrenados en conjuntos de datos 3D como Objaverse y ShapeNet pueden aprender a inferir la geometría faltante.
PointNetUna arquitectura pionera de aprendizaje profundo diseñada para procesar directamente datos de nubes de puntos desordenados. PointNet utiliza perceptrones multicapa compartidos y una operación de agrupación máxima simétrica para lograr invariancia de permutación, lo que permite la clasificación y segmentación 3D directamente desde conjuntos de puntos.
Mesh DecimationEl proceso de reducir la cantidad de polígonos en una malla 3D preservando al mismo tiempo su forma general y apariencia visual. Esto es importante para optimizar los modelos 3D para la representación en tiempo real, la visualización web y el almacenamiento eficiente en conjuntos de datos a gran escala.
Objaverse-XLUna versión ampliada de Objaverse que contiene más de 10 millones de objetos 3D procedentes de múltiples plataformas, incluidas Sketchfab, Thingiverse, GitHub y Smithsonian, lo que lo convierte en el conjunto de datos 3D abierto más grande.
DreamFusionUn método de generación de texto a 3D de Google que utiliza un modelo de difusión de texto a imagen previamente entrenado para optimizar una representación NeRF, lo que permite la creación de objetos 3D a partir de descripciones de texto sin datos de entrenamiento 3D.
Zero-1-to-3Un método para generar vistas novedosas de un objeto a partir de una sola imagen, entrenado con datos de Objaverse, que permite la reconstrucción 3D a partir de una sola fotografía.
ShapeNetUn conjunto de datos a gran escala, ricamente comentado, de formas 3D que contiene 51.300 modelos 3D únicos que cubren 55 categorías de objetos comunes, ampliamente utilizado como punto de referencia en la investigación del aprendizaje profundo 3D.
Triplane RepresentationUna representación 3D compacta que codifica una escena 3D utilizando tres planos de características ortogonales (XY, XZ, YZ), lo que permite una generación y renderización 3D eficientes con redes troncales neuronales 2D.
Multi-View StereoUna técnica para reconstruir geometría 3D a partir de múltiples fotografías superpuestas mediante la búsqueda de puntos correspondientes en las vistas y la triangulación de sus posiciones 3D.
Mesh SimplificationAlgoritmos que reducen el número de polígonos de una malla 3D y al mismo tiempo preservan su apariencia visual, importantes para el almacenamiento y la representación eficientes de conjuntos de datos 3D a gran escala.
Cap3DUn método para generar automáticamente descripciones de texto detalladas (títulos) para objetos 3D en Objaverse, lo que permite la búsqueda basada en texto y el entrenamiento de generación de texto a 3D.
Point-EUn modelo OpenAI que genera nubes de puntos 3D a partir de descripciones de texto, entrenado en un gran conjunto de datos de pares texto-3D, lo que permite la creación rápida de contenido 3D a partir de lenguaje natural.
Radiance FieldUna función continua que asigna coordenadas 3D y direcciones de visualización a valores de color y densidad, representando la apariencia de una escena desde cualquier punto de vista. NeRF es la implementación más conocida.
Digital TwinUna réplica virtual de un objeto, proceso o sistema físico que se actualiza en tiempo real con datos de sensores. Los conjuntos de datos 3D como Objaverse ayudan a crear gemelos digitales más realistas y diversos.
Implicit SurfaceUna superficie 3D definida como el conjunto de nivel cero de una función continua, en lugar de por vértices y caras explícitos. Las superficies neuronales implícitas como DeepSDF y las redes de ocupación entran en esta categoría.
3D ReconstructionEl proceso de creación de un modelo 3D a partir de observaciones 2D, como fotografías, mapas de profundidad o datos de sensores. Los métodos van desde la clásica estructura a partir del movimiento hasta las modernas técnicas de reconstrucción neuronal.
View SynthesisGenerar vistas novedosas de una escena desde puntos de vista que no fueron capturados por las cámaras. NeRF y Gaussian Splatting sobresalen en esta tarea al aprender representaciones continuas de escenas 3D.
Texture SynthesisGenerar automáticamente imágenes de textura para superficies 3D, ya sea extendiendo texturas de muestra o usando IA para crear texturas a partir de descripciones de texto. Importante para la representación realista de los objetos 3D generados.
Watertight MeshUna malla poligonal que forma una superficie completa y cerrada sin agujeros ni huecos. Se requieren mallas estancas para muchas operaciones como la impresión 3D, operaciones booleanas y consultas internas/externas.
Level of Detail (LOD)Una técnica para gestionar la complejidad mediante el uso de diferentes resoluciones de malla según la distancia de visualización. Los objetos alejados de la cámara utilizan mallas simplificadas, mientras que los objetos cercanos utilizan versiones con mucho detalle.
Scene GraphUna representación estructurada de una escena 3D que describe objetos, sus atributos (color, material, forma) y relaciones (encima, al lado, dentro). Los gráficos de escenas permiten la comprensión semántica y la generación de entornos 3D.
Neural Signed Distance FunctionUna red neuronal entrenada para generar la distancia con signo desde cualquier punto 3D hasta la superficie más cercana, proporcionando una representación implícita continua y diferenciable de formas 3D.
NeRF in the WildUna extensión de NeRF que maneja colecciones de fotografías sin restricciones con iluminación, exposición y oclusores transitorios variables, lo que permite la reconstrucción 3D a partir de fotografías de turistas.