What is camera?: 카메라란 3D world와 2D image를 mapping하는 과정이다. 이를 projection이라 한다. 이번 강의에서는 central projection 모델을 탐구한다. focal length만큼 떨어저 있는 평면을 이미지 평면이라
강의 목표1\. Homography의 존재를 보임2\. algebraic, geometric, and Sampson errors를 설명하고, Homography estimation에 적용한다3\. RANSAC 알고리즘을 이용하여 robust estimation을 가능하
Poselib Library는 카메라 pose estimation을 위한 minimal solver를 모아둔 collection입니다. Main focus는 여러 종류의 correspondences(e.g point-point, point-line, line-point
이번 part 강의의 목표는 다음과 같다SE(3) group의 개념과 3차원 공간에서 rigid body transformation의 개념을 알아야한다$\\mathbb{P}^3$에서의 평면과 점들을 표현하고, point-plane duality에 대해서 설명한다$\\m
What is Projective Geometry? 실제로 사영변환(projection)을 거치고 나면 몇가지 기하학적 특성이 보존되지 않는 것이 있다. 예를 들면 끝없이 펼쳐진 도로를 찍은 사진이 있다고 하면, 사진에서는 도로의 양끝선들이 끝에서 만나는 것처럼 보이
평면에 놓여있는 직선을 ax+by+c=0으로 표현가능하며, (a,b,c)값에 따라서 직선이 달리 표현된다.직선의 벡터 (a,b,c)는 scale이 달라진다 해도 동일한 직선을 나타낸다. point X=(x,y)가 line $l: ax+by+c=0$에 놓여있다고 가정.
이번 강의의 목표는 다음과 같다1\. perspective-n-point(PnP) camera pose estimation problem을 정의2\. n-point 혹은 2D-3D correspondences를 이용하여 uncalibrated camera의 camera
다음 논문은 privacy-attack의 개념을 최초로 제시한 논문이다. 위 논문에서는, sparse한 colored points clouds를 입력으로 받아서 2D Image를 합성할 수 있다는 것을 보여주었다. 입력으로는 특정 시점으로 projection된 poin
점 v를 통과하는 ray를 플루커 6-벡터로 표현하면, 단위방향벡터 x를 가지고 1번쨰 처럼 표현가능이것을 이용하여 generalized epipolar geometry로 나타내면 위와 같다. 이때 E는 t와 R의 cross product, (t,R)은 relative
본 포스트는 NUS대학의 3D Computer Vision 강의 (prof. Gim-Hee LEE)의 강의와 lecture slides의 내용을 인용하였습니다기존의 pinhole camera 모델은 한 점에서 rays가 모임반면에 generalized(non-centr
본 논문은 고전적인? 논문이라 할 수 있지만, 6개의 점을 이용하여 2개의 generalized 카메라의 relative한 pose를 구하는 방법을 제시한 논문이라 할 수 있음.Generalized camera: 핀홀카메라와 달리 ray가 중심으로 모이지는 않는 모델.
본 논문은 line clouds라는 개념을 처음 도입한 논문입니다. line clouds란 point clouds의 각 point에서 임의의 방향(uniform하게)으로 line을 만들면, InvSfM에서 사용 불가능하다는 것을 제시하는 논문입니다.기존의 traditi
본 논문에서는 privacy-preserving localization을 위해서 sparse한 point clouds를 그대로 두는 것이 아닌, line clouds라는 개념을 제시하며, 3차원 geometry 정보는 보존하면서도, 3D points position을
이번 포스트에서는 gMapping SLAM을 가제보 시뮬레이션에서 실습하는 포스트입니다.먼저 gMapping SLAM Package의 pipeline을 살펴보겠습니다1) Sensor 노드에서는 observation($$z\_{t}$$)값을 측정합니다2) 다음으로는 tu
이번 포스트에서는 ORB SLAM2 패키지를 이용하여 monocular SLAM을 진행하고자 합니다.1) 먼저 ORB-SLAM2 를 catkin_ws/src 에 다운받습니다.2) 이 떄 주의해야 할 사항으로는, 배포된 코드에 error가 있으므로 이를 수정해주어야 합니
논문제목: Improved Techniques for Grid Mapping with Rao-Blackwellized Particle Filters발표 학회 및 년도: IEEE Transactions on Robotics, 2007gMapping SLAM은 ROBOTI
Bundle Adjustment : 다시점 이미지들로부터 복원된 3차원 공간의 특징점(Visual keypoint)들의 위치를 기반으로 3D points의 위치와 카메라 pose를 최적화하는 기법이다. 아래 그림에서 보듯이 bundle of ray, 즉 ray들을 보정
Local geometric feature들을 매칭하는 것은 noise, low-resolution, 3D 스캔 데이터의 불완전성으로 인해 어려운 task입니다. 본 논문에서는 기존의 geometric한 특성들의 histogram을 기반으로한 SOTA를 뛰어넘는, da