- 인공 신경망(artificial neural network)을 기반으로 한 기계 학습(machine learning)의 하위 분야
기본 용어
- 인공 신경망 (Artificial Neural Network, ANN): 생물학적 신경망의 구조를 본떠 만든 알고리즘으로 여러 계층의 뉴런(neuron)들로 구성
- 뉴런 (Neuron): 신경망의 기본 단위로, 입력을 받아서 가중치와 바이어스를 적용한 후 활성화 함수(activation function)를 통해 출력을 생성
- 레이어 (Layer): 뉴런들이 모여 하나의 층을 이루며, 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구분됨
학습 및 최적화
- 학습 (Training): 신경망의 가중치(weight)와 바이어스(bias)를 조정하여 주어진 데이터에 맞게 모델을 최적화하는 과정
- 역전파 (Backpropagation): 출력과 실제 값의 오차를 최소화하기 위해 가중치와 바이어스를 조정하는 알고리즘
- 옵티마이저 (Optimizer): 가중치 조정을 통해 모델을 최적화하는 알고리즘으로, SGD(Stochastic Gradient Descent), Adam, RMSprop 등이 있음
- 손실 함수 (Loss Function): 모델의 예측 값과 실제 값 사이의 오차를 계산하는 함수 MSE(Mean Squared Error), Cross-Entropy Loss 등이 있음
데이터 관련
- 훈련 데이터 (Training Data): 모델 학습에 사용되는 데이터
- 검증 데이터 (Validation Data): 모델 학습 중 성능을 평가하기 위해 사용되는 데이터
- 테스트 데이터 (Test Data): 모델 학습 후 최종 성능을 평가하기 위해 사용되는 데이터
모델 구조 및 기법
- 컨볼루션 신경망 (Convolutional Neural Network, CNN): 이미지 처리에 주로 사용되는 신경망 구조로, 컨볼루션 층과 풀링 층으로 구성됨
- 순환 신경망 (Recurrent Neural Network, RNN): 시퀀스 데이터를 처리하는 데 사용되는 신경망 구조로, LSTM(Long Short-Term Memory)과 GRU(Gated Recurrent Unit) 등이 있음
- 오토인코더 (Autoencoder): 입력 데이터를 압축하고 다시 복원하는 과정을 통해 특징을 학습하는 신경망 구조
- 생성적 적대 신경망 (Generative Adversarial Network, GAN): 두 개의 신경망이 서로 경쟁하며 학습하는 구조로, 데이터 생성에 사용
기타
- 과적합 (Overfitting): 모델이 훈련 데이터에 너무 맞춰져서 새로운 데이터에 대한 일반화 성능이 떨어지는 현상
- 정규화 (Normalization): 데이터의 분포를 일정하게 만들어 학습을 더 원활하게 하기 위한 과정
- 드롭아웃 (Dropout): 학습 과정에서 일부 뉴런을 무작위로 제외하여 모델의 과적합을 방지하는 기법
이 외에도 다양한 용어와 개념들이 있으며, 딥러닝의 세부 분야나 응용 영역에 따라 추가적인 용어가 존재할 수 있음