딥러닝 - 용어정리

Doya·2025년 4월 30일

ESTSOFT_AI개발7기

목록 보기
34/43

개요

  • 딥러닝이란?
  • 딥러닝전 용어 정리

딥러닝(Deep Learning), 심층 학습

  • 인공신경망(DNN)을 기반으로 하여 여러 은닉층을 가진 구조
  • 비정형 데이터(이미지, 음성 등)을 자동 학습하고 예측할수 있음
  • 머신러닝의 한 분야

AI: 인간처럼 사고하고 학습하는 시스템의 전체를 의미
Machine Learning: 컴퓨터가 스스로 학습하여 인공지능의 성능을 향상 시키는 기술 방법
Deep Learning: 인공신경망을 이용한 기계학습

신경망(Neural Network)

  • 사람의 뇌 구조를 모방한 알고리즘
  • 기본단위는 뉴런이며, 여러 층 형태로 연결되어 정보를 전달 및 학습을 함

    신경망 예시

구성 요소설명
입력층 (Input Layer)외부 데이터를 신경망에 전달하는 시작 지점
은닉층 (Hidden Layer)입력 데이터를 처리하고 특징을 추출하는 중간 층. 여러 층 가능
출력층 (Output Layer)최종 결과를 출력하는 층 (예: 분류 결과)
뉴런 (Neuron)입력값을 받아 계산하고 다음 층으로 전달하는 기본 단위
가중치 (Weight)입력값의 중요도를 조절하는 값
편향 (Bias)결과값을 보정하는 상수. 뉴런당 하나씩 존재
활성화 함수 (Activation Function)비선형성 부여. 출력 여부를 결정하는 수식 (예: ReLU, Sigmoid 등)

신경망 학습 순서
1. 신경망 생성 Sequential()
2. 신경망에 층을 하나씩 추가 add(Dense(출력층, 활성화함수, 입력shape))
3. 학습준비(옵티마이저, 손실함수, 평가기준 설정) model.compile( 옵티마이저, 손실함수, 지표)
4. 모델 훈련 model.fit(x,y, batch_size=1, epochs=100)
5. 모델 구조 확인 model.summary() 요약 param계산
6. 모델을 이용하여 예측하기 model.predict(x)
7. 시각화

용어 정리

Epoch (에폭)

  • 전체 데이터셋을 한 번 학습하는 단위
  • 예시: 총 2,500건 데이터에서 batch_size=100이면
    → 1 epoch 당 25회 반복
  • 보통 수십에서 수백 번 반복하며 학습시킴

Batch Size (배치 크기)

  • 한 번에 신경망에 전달하는 데이터 수
  • 작으면 메모리 부담 적고 빠르지만, 결과가 불안정할 수 있음
  • 예시: batch_size = 100 → 한 번에 100건씩 학습

Optimizer (옵티마이저)

모델이 어떻게 학습할지 방향을 정해주는 역할

이름설명
SGDStochastic Gradient Descent. 확률적 경사 하강법
AdamAdaptive Moment Estimation. 빠르고 안정적
RMSprop학습률을 자동 조정해 진동 줄임
Adagrad희귀한 피처에 유리
AdadeltaAdagrad의 단점 보완 버전

손실 함수 (Loss Function)

예측값이 얼마나 틀렸는지 계산하는 함수

이름사용 상황
mean_squared_error회귀 문제
binary_crossentropy이진 분류
categorical_crossentropy다중 분류 (원-핫 벡터)
sparse_categorical_crossentropy다중 분류 (정수 레이블)

손실 함수1개의 데이터 오차
비용 함수전체 데이터 평균 오차

활성화 함수 (Activation Function)

뉴런이 값을 출력할지 말지를 결정하는 함수
비선형성을 부여하여 모델 성능 향상

함수설명
ReLU0 이하면 0, 초과는 그대로 출력. 빠르고 기본값
Sigmoid0~1 사이. 이진 분류에서 사용
Softmax다중 클래스 확률 분포로 출력 (출력층에 사용)
# ReLU 예시
def relu(x):
    return max(0, x)
profile
안녕하세요. 도야입니다

0개의 댓글