# Tanh

4개의 포스트
post-thumbnail

Activation Functions

Activation Functions logistic regression에서 linear transformation 결과에 적용한 non-linear transformation인 sigmoid함수가 activation function에 해당된다. activation f

2022년 4월 16일
·
0개의 댓글
post-thumbnail

[딥러닝] 성능향상(활성함수)

입력값과 가중치를 곱해주고 활성함수를 위한 b(bias)를 더해준 값을 활성함수에 입력함활성함수는 입력에 가중치가 곱해서 나온값의 정도를 결정해서 다음으로 넘겨줌!선형함수에서 ReLU까지 활성함수가 발전해온 과정sigmoid와 계단함수 같은 경우 값이 너무 작거나 너무

2021년 7월 7일
·
0개의 댓글
post-thumbnail

딥러닝 활성화 함수

과정뉴런이 입력 데이터를 처리하는 과정x인 입력 데이터는 가중치와 곱해진다. (x가 둘 이상일 경우 각 x에 서로 다른 가중치 w가 곱해진다.)가중치와 데이터의 곱을 모두 더해준 후 활성화 함수에 대입된다.활성화 함수에는 계단함수, 시그모이드, 하이퍼볼릭 탄젠트...

2021년 6월 13일
·
0개의 댓글