[인공지능(AI) 맛보기] 딥러닝 기본 용어 설명 - Historical Review

ssu_hyun·2021년 11월 21일
post-thumbnail

🏆 학습 목표

  • 딥러닝에 대한 소개: CNN(Convolutional neural networks), RNN(Recurrent Neural Networks)과 같은 딥러닝 모델을 공부하기 전에 중요한 요소인 Data, Model, Loss, Optimization algorithms에 대해 배웁니다.
  • 딥러닝의 역사: 2012년부터 2021년까지의 패러다임에 대해 배웁니다.

인공지능(Artificial Intelligence) = 인간의 지능을 모방하는 것
머신러닝(Machine Learning) = 데이터를 통해 무언가를 학습하는 기계학습
딥러닝(Deep Learning) = Neural Network라는 구조를 사용하는 모델

Key Componenets of Deep Learning

  • Data : 우리가 풀고자하는 문제에 dependent
  • Model : 같은 데이터가 주어져도 모델에 따라 성능이 다를 수 있다.
  • Loss function : 모델을 어떻게 학습할지(=Neural Network의 weight와 bias를 어떻게 업데이트 할지에 대한 기준)
    • 회귀(Regression) : MSE (Mean squared Error)
    • 분류(Classification) : CE(Cross Entropy)
    • 확률(Probabilistic) : MLE (=MSE)
  • Algorithm : 네트워크를 어떻게 줄일지
    • Dropout
    • Early stopping
    • k-fold validation
    • Weight decay
    • Batch normalization
    • MixUp
    • Ensemble
    • Bayesian Optimization
      => 다양한 techinique를 통해 학습 데이터만이 아닌 한 번도 보지 못한 테스트 데이터/실환경에서 잘 동작하는 것이 목적

Historical Review

2012-AlexNet


딥러닝이 실제적으로 성능을 발휘하기 시작하여 기계학습의 판도가 바뀌기 시작

2013-DQN

  • 알파고를 만든 알고리즘
  • 큐러닝이라 불리는 강화학습의 방법론을 이용해 딥러닝에 접목한 방법
  • 오늘날의 DeepMind를 있게 한 것

2014-Encoder/Decoder, Adam

  • 단어의 연속(sequence)이 주어졌을 때 우리가 원하는 다른 언어의 단어의 연속(sequence)으로 뱉어주도록 함 (seq2seq)
  • 웬만하면 실험결과가 잘 나옴

2015-GAN, ResNet

  • 네트워크가 generator와 discriminator 두 개를 만들어 학습시키는 것
  • 딥러닝의 이유/필요성을 설명해주는 모델
  • 네트워크를 깊게 쌓을 수 있도록 만들어준 모델

2017-Transformer

  • "Attention Is All You Need"
  • Multi-Head Attention의 구조를 이해하는 것이 중요

2018-Bert

  • Transformer 구조 + Bidirectional Encoder 구조 활용
  • 딥러닝의 흐름을 바꾼 개념 : fine-tuned NLP models
  • language model : 이전 단어들이 주어졌을 때 다음에 어떤 단어들이 나올지 맞추는 것. 이를 반복하게 되면 그럴싸한 문장/글은 물론 프로그램을 만들 수 있다.
  • 다양한 단어들/큰 말뭉치(wikipedia)를 활용해 pre-training(사전 학습)한 후 내가 풀고자 하는 소수의 데이터에 fine tuning하여 좋은 성능을 내는 모델

2019-Big Language Models(GPT-X)

  • NLP 모델
  • fine-tuned model의 끝판왕
  • 약간의 fine tuning을 통해 다양한 문장/프로그램/표와 같은 sequencial 모델을 만들 수 있음
  • 굉장히 많은 parameter

2020-Self-Supervised Learning

  • SimCLR : Self Supervised Learning의 포문을 열은 논문
  • 한정된 학습 데이터(label 있음)외에 unsupervised 데이터(label 없음)를 활용하는 것
  • Supervised Learning : 학습데이터를 도메인 지식을 통해 추가로 만들어내 학습 데이터를 더 많이 만들어 좋은 성능을 내는 것

Reference

0개의 댓글