










3D 객체를 함수로 표현하는 방식이다.
개념: 객체의 본질적인 내재된 차원(intrinsic dimensionality, 곡선의 경우 1D, 표면의 경우 2D)을 3D 공간으로 매핑하는 함수를 사용한다.
예시 (2D 곡선): 원을 점들의 집합 대신 하나의 함수로 표현할 수 있다. 변수 (각도) 하나를 변화시켜 원 위의 모든 점을 매핑한다.

예시 (3D 구): 구는 두 개의 자유도(와 )를 갖는 함수를 통해 3D 공간의 모든 점에 매핑될 수 있다.
고급 방식: 몇 개의 제어점(control points)을 사용하여 유연하고 부드러운 표면을 표현할 수 있는 베지어 곡선(Bezier curves) 및 베지어 표면(Bezier surfaces)이 있다. 이는 세분화와 같은 연산을 지원한다.

객체의 표면을 직접 정의하는 것이 아니라, 3D 공간의 점들이 특정 제약 조건(constraint)이나 함수를 만족하는지 여부로 객체를 정의하는 방식이다.
수학적 개념: 객체 표면 위의 점들은 이라는 관계를 만족한다고 가정한다.
구현: 복잡한 모양의 경우 폐쇄형(closed form) 함수를 작성하기 어렵기 때문에, 종종 뉴럴 네트워크(Neural Network)를 사용하여 이 함수 를 표현한다.
적용 범위: 처음에는 기하학(Geometry) 표현에 사용되었으나, 나중에는 3D 객체의 색상, 외관(appearance), 재질 등까지 확장되었다.
장점:
단점:
- 샘플링의 어려움: 객체 표면 위의 점들을 쌍으로 얻으려면 방정식을 풀어야 하는데, 이 함수가 복잡할 경우 샘플링이 매우 어렵다.










초기 데이터셋: 딥러닝 이전에는 Princeton Data Shape Benchmark가 주로 사용되었으나, 180개 카테고리에 1,800개 모델로 매우 작았다.
ImageNet 효과: ImageNet처럼 대규모 3D 데이터셋의 필요성이 대두되었다.

실제 데이터셋의 도전:
구조화된 데이터셋: 객체의 부분(PartNet: 부품, 의미론, 이동성 정보) 및 3D 장면 데이터셋 (ScanNet: 1,500~3,000개 방)도 구축되었으나, 규모가 매우 작다.



















NeRF의 병목 현상: NeRF는 3D 공간을 매우 조밀하게(densely) 샘플링해야 하므로, 쿼리가 많아 계산 속도가 매우 느리다. 대부분의 샘플링은 빈 공간에 대한 쿼리이므로 컴퓨팅 파워가 낭비된다.
3D Gaussian Splatting (3DGS):



