post-thumbnail오늘의 논문은 Going deeper with convolutions !왜 GoogLeNet인가 했더니 저자들이 구글팀이라서..?Abstract논문에서는 Inception이라는 모듈을 제안하며 네트워크상에서 파라미터 계산에 사용되는 자원의 양을
post-thumbnail2\. Gradient desecent variantsWhat is Gradient desecent algorithms?함수의 기울기(경사)를 구하여 기울기가 낮은 쪽으로 계속 이동시켜 극값(최적값)에 이를 때까지 반복하는 것이다.해당 함수의
IntroductionSGD(Stochastic Gradient Descent) : 이전 포스터 참고링크텍스트SGD의 문제점hyperparameter들의 초기값 설정을 굉장히 신중하게 해줘야 한다.\-> 아닐 경우, covariate shift가 발생 가능성Satura
Introduction지금까지 ML에서 데이터셋이 많아지면서 효율이 높은 모델들이 많이 나왔지만, 아직까진 데이터가 조금만 어려워지고 변화가 일어나 분배가 잘못된다면 결과에 큰 영향을 미치게 된다.또한, 단일 주제에서 그 주제와 관련된 데이터셋으로만 학습되는 것에만 치
post-thumbnail1\. Semi-Supervised Learning준지도학습의 이름에는 절반을 뜻하는 ‘semi-’가 붙지만, 실제로 이 학습방식에는 위에서 언급한 레이블링된 데이터와 레이블링되지 않는 데이터가 모두 사용된다.준지도학습에서는 한 쪽의 데이터에

Abstract본 논문에서는 적대적 과정을 통해 모델을 추정하기 위한 프레임워크를 제안한다.GAN에서 자주 볼 수 있는 그림인데, 데이터를 생성하는 Generator, 판별하는 Discriminator가 있다. 이 프레임워크는 두 명의 플레이어가 minmax game을