3D reconstruction은 occlusion이나 센서의 영향으로 불완전하기 때문에 application에 어려움이 있다.\-> RGB-D scan, objects with CAD model을 받아 그래프를 활용하여 scene을 CAD 모델로 나타낸다.Encode
(b) Object node extraction(c) Relationship edge pruning(d) Graph context integration$I:$ image$V:$ 이미지 내의 object 노드 집합$E \\in {V \\choose 2 }:$ object
Room layout을 $y_w, y_c, y_f$에 대한 1D representation으로 나타낸다.$y_f$: 벽과 floor 사이의 boundary에 대한 좌표$y_c$: 벽과 ceiling 사이의 boundary에 대한 좌표$y_w$: 벽과 벽 사이의 boud
3D scene에서 location query가 주어졌을 때 적절한 객체의 type에 대한 예측을 하는 taskShape과 context에 대한 정보를 message passing하여 objec type에 대한 확률분포를 추정각 노드에는 category, positio
NeRF와 같은 모델에서 input을 higher-dimensional space로 보내 compact한 모델로부터 high approximation quality를 추출할 수 있음이 증명되었으나 task specific하며 GPU performance를 제한시킨다.\
single-image scene synthesis에서의 key challenge는large view change를 extrapolation을 통해 잘 나타내는 것여러 view에서의 output이 consistency를 가지는 것3D-awareness(depth에 따라
GAN에서 Discriminator는 Generator가 만든 이미지가 실제 이미지의 prototype과 유사한지 평가하는 역할을 한다. 하지만 Single prototype은 mode collapsing 문제가 있고 이를 해결하고자 multiple discrimina
Contribution Fast R-CNN에서 모든 과정을 통합시켰지만 여전히Selective search 알고리즘은 외부에서 연산하므로 ROI 생성단계에서 병목현상이 발생 -> Region Proposal도 네트워크 내에서 수행할 수 있는 모델 개발 Model
R-CNN은 모든 ROI에 대해 CNN을 수행하여 속도가 느리다는 단점SPPNet은 전체 이미지를 CNN에 통과시켜 feature map을 얻은 후 ROI별로 Max pooling을 거치는 방식을 통해 속도를 개선하였지만 여전히 여러 단계를 거친다는 한계점"->CNN,
FC layer에서 고정된 크기의 이미지가 필요한데 crop, warp 과정에서 손실이 있음\-> Spatial Pyramid Pooling을 통해 피쳐맵들을 동일한 크기로 조절R-CNN에서는이미지마다 selective search를 통해 2000개의 ROI를 생성하여