![]() | ![]() |
---|---|
edge의 원인들 | edge model들 |
![]() | ![]() |
---|---|
문제는 현실의 edge는 이상적이지 않다 | 그래서 좋은 edge detector는 이래야한다 |
![]() | ![]() |
---|---|
edge의 intensity 변화 | 1st derivative의 absolute value |
![]() | ![]() |
---|---|
2d edge | gradient의 활용 |
![]() | ![]() |
---|---|
gradient의 magnitude와 orientation 활용 | Dscrete Gradient는 Convolution을 활용할 수 있다 |
![]() | ![]() |
---|---|
다양한 convolution kernel과 size에 따른 변화 | 마지막으로 edge를 thresholding할 때 어떻게 할지 생각해볼 수 있다 |
![]() | ![]() |
---|---|
2nd derivative도 당연히 쓸 수 있다 | Laplacian이 여기서 등장한다 |
![]() | ![]() |
---|---|
discrete laplacian도 convolution을 활용할 수 있다 | Noise는 1st derivative에 영향을 미친다 |
![]() | ![]() | ![]() |
---|---|---|
Gaussian First | Gaussian의 1st derivative | Gaussian의 2nd derivative |
![]() | ![]() |
---|---|
gradient와 laplacian의 차이 | 각각의 edge detector의 차이 |
![]() | ![]() |
---|---|
canny edge detector | hyper-parameter에 따른 결과 차이 |
![]() | ![]() |
---|---|
당연하게도 이번에도 gradient를 쓸 수 있다 | 주요 아이디어는 image gradient의 distribution을 활용 |
![]() | ![]() |
---|---|
lambda 1,2를 찾아내면 쓸 수 있다 | 요런 식으로 찾을 수 있다 |
![]() | ![]() |
---|---|
lambda 1,2를 활용한 해석 | Harris Corner Response Function |
![]() | ![]() |
---|---|
Naive Harris Corner Detection의 예시 | Peak Value를 찾는 방법, Non-Maximal Surppression |
![]() | ![]() |
---|---|
Boundary Detection의 목표 | 문제 해결의 방향성 vertical distance 말고 perpendicular distance |
![]() | ![]() |
---|---|
문제 해결의 방향성 원하는 수준의 곡선에 fitting | Solve Linear System |
![]() | ![]() |
---|---|
Active Contour의 정의 | 왜 이런 일을 하는가? Tracking 등에 유용하다 |
![]() | ![]() |
---|---|
Contour를 표현하는 방법 set of points | Blurred Gradient를 활용해서 point를 edge로 끌어당길 수 있다 |
![]() | ![]() |
---|---|
위의 아이디어들을 기반으로 Greedy Algorithm을 구현할 수 있다. 하지만 Noise에 약하고 느리다 | 이를 해결하기 위해 internal bending energy 아이디어를 도입할 수 있다 |
![]() | ![]() |
---|---|
이렇게 계산할 수 있다 | 업데이트된 알고리즘은 다음과 같다 |
![]() | ![]() |
---|---|
결과 예시는 다음과 같다 | 이 과제들과 방법론들에서 생각해볼점 |
TODO