Scene understanding은 AR/VR, robot navigation 등 여러 분야에 유용하지만 scanned 3D data는 incomplete하기 때문에 scene을 정확하게 이해하는데 어려움이 있다.사람은 scene에 대해 이해할 때 visual per
3D reconstruction은 occlusion이나 센서의 영향으로 불완전하기 때문에 application에 어려움이 있다.\-> RGB-D scan, objects with CAD model을 받아 그래프를 활용하여 scene을 CAD 모델로 나타낸다.Encode
생성 모델의 유용성으로 text로부터 이미지를 생성하는 모델들이 나왔으나 sentence에 많은 object가 존재할 때는 생성에 어려움이 있었다.선형 구조의 sentence를 위 그림과 같이 objects와 relationships로 표현하는 scene grah로 나
(b) Object node extraction(c) Relationship edge pruning(d) Graph context integration$I:$ image$V:$ 이미지 내의 object 노드 집합$E \\in {V \\choose 2 }:$ object
3D scene에서 location query가 주어졌을 때 적절한 객체의 type에 대한 예측을 하는 taskShape과 context에 대한 정보를 message passing하여 objec type에 대한 확률분포를 추정각 노드에는 category, positio
Introduction 일반적인 카메라의 FoV(Field of View)는 60도이기 때문에 context 정보의 활용이 제한적이다. 본 논문에서는 360도 파노라마를 활용하여 obejects' shapes, 3D poses, semantic category, ro
Depth sensor의 이용, real-time dense SLAM 알고리즘의 발달 등과 함께 3D scene reconstruction은 geometric 정보뿐만 아니라 semantic 정보의 복원까지 그 중요성이 부각되었다.그동안의 연구들은 완전한 3D scan