xdfc1745.log
xdfc1745.log
profile
우주먼지
안녕하세요 ㅎㅎ
글시리즈소개
태그 목록
  • 전체보기(78)
  • 인공지능(29)
  • TIL(23)
  • 광인사(17)
  • error(14)
  • mote(9)
  • python(8)
  • WIL(7)
  • PyTorch(4)
  • NLP(3)
  • cuda(2)
  • 딥러닝(2)
  • 시간복잡도(1)
  • pip(1)
  • colab(1)
  • 브레이크패드(1)
  • 자연어처리(1)
  • tokenizer(1)
  • 완전탐색(1)
  • bruteforce(1)
  • gelu(1)
  • ReLU(1)
  • transformers(1)
  • 경고등(1)
  • tensorflow(1)
  • KOBERT(1)
  • mnist(1)
  • 재귀(1)
  • plotly(1)
  • 브레이크액(1)
  • 파이썬(1)
  • GPT3(1)
  • 논문리뷰(1)
  • fasttext(1)
  • CUDNN(1)
  • 자료구조(1)
  • DecisionTreeClassifier(1)
  • Tensor(1)
  • 코딩테스트(1)
  • softmax(1)
전체보기 (78)인공지능(29)TIL(23)광인사(17)error(14)mote(9)python(8)WIL(7)PyTorch(4)NLP(3)cuda(2)딥러닝(2)시간복잡도(1)pip(1)colab(1)브레이크패드(1)자연어처리(1)tokenizer(1)완전탐색(1)bruteforce(1)gelu(1)ReLU(1)transformers(1)경고등(1)tensorflow(1)KOBERT(1)mnist(1)재귀(1)plotly(1)브레이크액(1)파이썬(1)GPT3(1)논문리뷰(1)fasttext(1)CUDNN(1)자료구조(1)DecisionTreeClassifier(1)Tensor(1)코딩테스트(1)softmax(1)
post-thumbnail

활성화 함수(activation function)

딥러닝 네트워크에서 노드에 들어오는 값들에 대해 바로 다음 레이어로 전달하지 않고 비선형 함수를 주로 통과 시킨 후에 전달한다. 이 때 사용하는 비선형 함수를 활성화 함수(activation function)이라고 한다.비선형 함수를 사용하는 이유는 멀티퍼셉트론을 경우

ReLUgelusoftmax
2021년 12월 3일
·
0개의 댓글