

여기서 이 뭔지 명확하게 안 나왔는데, 로 표기한 게 맞다면 를 점점 키워서 training views 사이를 점점 메꿔나가는 느낌? training views로 얻을 수 있는 3D points에 가우시안 노이즈를 가하고 std 를 키워서 점의 범위를 확장해가는 느낌으로 이해할 수 있을 것 같다. 더 찾아봐야지.
Training view에 노이즈를 추가해서 Pseudo view의 카메라 위치를 만들기
여기서 는 뭐지?
image-level Pearson distribution loss between rendered & MiDaS depth
Pearson correlation loss?
https://datascience.stackexchange.com/questions/114455/is-pearson-correlation-a-good-loss-function
Pearson correlation은 설명가능한인공지능 수업 들을 때 변수중요도 다루면서 들은 것 같은데...
GT와 Prediction의 차이를 줄여주지 않으나 correlation은 잘 맞게 해주는 역할
선택적 쪼개기를 함

