# L2 regularization
[Aiffel] 아이펠 32일차 개념 정리 및 회고
1. 딥러닝 개념 1) Regularization & Normalization ||Regularization|Normalization| |:---:|:---:|:---:| |목적|overfitting 해결|데이터의 형태를 트레이닝에 적합하도록 전처리하는 과정| |방법|1. L1 regularization 2. L2 regularization3. Batch normalization|z-score, minmax scaler| 2) L1 regularization 정의 lasso 정의 마지막에 더하는 부분이 없은면 linear regression과 동일함 Lp norm이 1일 때를 나타내는 것 Lp norm 공식 
이번 글에서는 정규화(Regularization)에 대해 알아보겠다. 만약 우리가 가지고 있는 데이터가 그렇게 크지 않다면, overfitting이 될 가능성이 크기 때문에 overfitting되지 않게 하기 위해 Regularization을 꼭 해줘야 한다. 출처 왜 정규화가 필요한지, 또 정규화를 하게 되면 어떻게 되는지 알아보자. Packages 위에서 다운받은 데이터셋은 이 그림을 보면서 이해하면 편하다. 프랑스 골키퍼가 어느
AdamW, L2 regularization, weight decay
L2 regularization에 대하여 자세한 정보를 찾아보던 중 좋은 글을 찾았다. AdamW의 논문에 대한 분석으로 총 2페이지로 구성이되어 있었다. L2 regularization과 weight decay에 대한 자세한 설명과 이로 인해 AdamW가 나오게 된 이유로 그림과 수식들을 통해 설명되어있다. https://hiddenbeginner.github.io/deeplearning/paperreview/2019/12/29/paperreviewAdamW.html