one_step.log
로그인
one_step.log
로그인
Activation
yeoni
·
2023년 6월 19일
팔로우
0
스터디 노트
0
딥러닝-Tensorflow
목록 보기
4/18
역전파 back-propagation
오차를 뒤로 전달해서 사이에서 알 수 없었던 오차 값을 주는 것
1. 역전파에서 sigmoid 문제가 존재
2. gradient vanishing
3. ReLU 등장
4. softmax
∑
n
개출력값의확률
=
1
\sum n개 출력값의 확률 = 1
∑
n
개
출
력
값
의
확
률
=
1
, 이중 가장 높은 값을 정답이라고 한다
5. 활성화 함수의 종류
Reference
1) 제로베이스 데이터스쿨 강의자료
2)
https://steadiness-193.tistory.com/244
yeoni
데이터 사이언스 / just do it
팔로우
이전 포스트
XOR
다음 포스트
Optimizer
0개의 댓글
댓글 작성