
오늘은 자연어 생성(NLG)에서 fine tuning 방법의 대안으로 사용하는 prefix tuning가 무엇인지? 그리고 어떻게 적용하는지?에 대해 알아보고자 한다. 참고 논문: Prefix-Tuning: Optimizing Continuous Prompts for

오늘은 지난 Prefix Tuning에 이어, Prompt Tuning에 대해 알아보자!

오늘은 VAE. 그 중에서도 β-VAE의 특징과 사용하는 목적에 대해 알아보자!

오늘은 분류와 회귀에 모두 사용하는 Support Vector Machine(SVC, SVR)에 대해 알아보자!

오늘은 이미지 데이터 처리에 많이 사용하는 CNN모델에 대해 알아보자!

오늘은 시계열 데이터 처리에 많이 사용했던 RNN에 대해 알아보자!

오늘은 트랜스포머의 Encoder에 대해 알아보자!

오늘은 LSTM과 각 게이트에 대해 알아보자!

오늘은 신경망을 구성할 때 학습 안정성을 높이기 위해 사용하는 정규화, 그 중에서도 많이 사용하는 BatchNorm(BN)과 LayerNorm(LN)에 대해 알아보자!

오늘은 여러 SOTA 모델에서 최적화(Optimizer)알고리즘으로 사용하는 AdamW에 대해 알아보자!

오늘은 클러스터링 평가지표인 실루엣 계수에 대해 알아보자!

오늘은 Regression에서 자주 사용하는 네 가지 손실 함수에 대해 알아보자!

리프 텐서와 논리프 텐서에 대해!

오늘은 가중치 초기화 방법인 xavier, kaiming에 대해 알아보자!

학습 속도 향상을 위한 Auto Mixed Precision에 대해 알아보자!

모델 학습 시 기울기 폭발(Gradient Exploding)을 방지하는 Gradient Clipping에 대해 알아보자!

오늘은 서빙(serving)의 과정을 FastAPI로 실습해보려고 한다!

오늘은 머신러닝 / 딥러닝 기반 DeepFake Detection에 대해 알아보려 한다!