04. 딥러닝
1. 딥러닝
1) 머신러닝 vs 딥러닝
2) 딥러닝의 유래
- 인공 신경망 : 인간의 신경세포를 모방하여 만든 망(네트워크)
- 퍼셉트론(Perceptron) : 인공 신경망의 가장 작은 단위
3) 가중치 구하기 - Gradient Descent(경사하강법)
- 가중치를 움직이면서 최소의 MSE를 도출하는 함수를 목적함수 또는 손실함수라고 함
- 경사하강법은 모델의 손실 함수를 최소화하기 위해 모델의 가중치를 반복적으로 조정하는 최적화 알고리즘
4) 활성화 함수의 등장
- 로지스틱 함수(시그모이드 함수의 한 예) 외에도 다양한 활성화 함수가 존재
- Sigmoid, tanh, ReLU, Leaky ReLU, Maxout, ELU 등
5) 히든 레이어의 등장
6) 복습은 도움이 된다 - epoch
- epoch : 전체 데이터가 신경망을 통과하는 한 번의 사이클
- 1000 epoch : 데이터 전체를 1000번 학습
- batch : 전체 훈련 데이터 셋을 일정한 크기의 소 그룹으로 나눈 것
- iteration : 전체 훈련 데이터 셋을 여러 개(=batch)로 나누었을때 배치가 학습되는 횟수
2. 딥러닝의 활용 예시
1) 자연어처리
- 인간의 언어를 데이터화 하는 것
- Transformer모델을 통한 기계번역
- 자연어 처리 모델 - LLM(Large Language Medel)
2) 이미지
- 3차원 데이터를 모델에 학습 시킴
- 최근 이미지 모델은 텍스트, 이미지, 음성 등 다양한 유형의 데이터를 함께 사용하는 Mutimodal
3. 강의 마무리
1) 머신러닝의 기초
2) 회귀분석
- 가장 설명을 잘하는 직선을 그리는 법 - 선형회귀
- 실제 값과 예측 값의 오차를 계산하라 - Mean Squared Error
3) 분류분석
- 특정 범주에 대한 확률 예측하기 - 로지스틱회귀
- 맞춘 것에 대한 지표: 정확도, f1_score
4) 데이터 분석 프로세스
5) 회귀, 분류 모델링 심화
- 의사결정을 기반으로 한 모델 - 의사결정나무
- 나무를 여러 개 만들어서 다수결 원칙을 사용하자 - 랜덤포레스트
- 유유사종의 원리로 예측하자 - KNN
- 약한 학습기를 여러 개 합치자 - 부스팅 모델
6) 비지도학습
- 만약 Y(정답이 없다면) 특성을 이용해 그룹화 하자 - K-means 군집화
7) 인공 신경망
- 사람의 신경세포를 모방한 네트워크 - 인공 신경망