Residual Block(Function, Connection)

olxtar·2022년 9월 23일
0
post-thumbnail

Background




About Residual ~


Comment :

CycleGAN 실제사용 코드에서 Generator에 Residual Block이라는 개념을 사용하여 해당 글을 작성하게 되었다.


[?] 인코더와 디코더 사이에만 Residual Block을 넣네? (몇개 넣긴함)
[?] 인코더정도의 깊이는 괜찮지만, 디코더깊이까지 깊어지면 너무 깊어서 Gradient Vanishing 문제가 생겨서 그런건가?
[?] Block속에는 Residual Function이라는 (의미없어보이는) Convolutional layer가 있음, 왜 의미없어보이냐면 입력으로 들어오는 데이터 사이즈 그대로 출력함; + batch normalization은 하긴함
[?] 비선형함수 f(x)f(x), xf(x)xx \rightarrow f(x) \rightarrow x를 '학습'하기 위해서인가?
[?] Residual function; h(x)=f(x)xh(x)=f(x)-x에서 우리가 원하는 f(x)f(x)는 결국 h(x)+xh(x)+x이고 (Residual function인) hh가 0이 되면, 0이 되게끔 만드는 weight를 학습하면 f(x)xf(x)\simeq x이니까?
[!] UdacityCycleGAN 예제(Yosemite National Park Summer \leftrightarrow Winter)에서는 Generator속에 Residual block(layer)를 6개나 넣음 n_res_blocks=6

profile
예술과 기술

0개의 댓글