organic_mint.log
로그인
organic_mint.log
로그인
밑바닥부터 시작하는 딥러닝 챕터 3 퍼셉트론 정리
민트
·
2025년 1월 15일
팔로우
1
AI
NLP
python
밑바닥부터시작하는딥러닝
스터디
파이썬
1
deepLearningFromScratch
목록 보기
3/5
단층 퍼셉트론
단층 네트워크에서 계단함수를 활성화 함수로 사용한 모델
다층 퍼셉트론
신경망(여러 층으로 구성되고 시그모이드 함수 등의 매끈한 활성화 함수를 사용하는 네트워크)
시그모이드 vs 계단함수
공통점
- 입력값에 관계없이 출력은 0 ~ 1 사이
- 비선형 함수
차이점
- 매끈함..
활성화 함수를 비선형 함수를 사용하는 이유
선형 함수를 사용한다면 층을 깊게 하는 의미가 없어진다. 선형 함수만으로 층을 깊게 쌓아도, 어차피 선형 함수이다.
출력층에서 사용하는 활성화 함수 선택 기준
일반적으로 회귀에는 항등 함수
분류에는 소프트맥수 함수
소프트맥스 함수
소프트맥스 구현시 오버플로우에 주의 (익스퍼넨셜 )
-> 분자에 올라가는 익스퍼넨셜 지수에서 입력의 최댓값을 빼줘서 구현
출력 총합이 1 이어서 확률로 해석이 가능
백색화
전체 데이터를 균일하게 분포시키는 것
민트
SSAFY 9기, 네이버 부스트캠프 AI Tech 7기
팔로우
이전 포스트
밑바닥부터 시작하는 딥러닝 챕터 2 퍼셉트론 정리
다음 포스트
밑바닥부터 시작하는 딥러닝 챕터 4 신경망 학습 정리
0개의 댓글
댓글 작성