딥러닝 왜 발전?
1.하드웨어 상향(메모리, gpu연산)
*코렙 지피유 연산 수정할 수 있음
2.빅데이터(데이터의 양 증가)
3.알고리즘 향상
이간의 두뇌에 있는 신경세포를 모델링 해가지고 기계를 학습하자고 나온게 퍼셉트론
이 퍼셉트론이 등장했을때 XOR(배타적 논리합)으로 문제를 삼았고 퍼셉트론의 한계를 마주하게 됨
쉽게 말하면 강에서 살고 있는 물고기가 사냥을 할때
먹이가 살도 오르고 잡기 쉬운데 왜 사냥을 안하냐면 이것은 미끼일거라고 학습되어있어서 오히려 이런 상황에서 사냥을 안한다고함
위에 이미지가 보여주는 것처럼 히든 레이어가 2개 이상이 되면서 xor 문제를 해결해줌
출처: https://seongjuhong.com/2019-12-08pm-multi-layer-perceptron/
그림을 보면 맨 오른쪽이 xor인데 선을 두개 그어서 문제를 해결함
즉, 1 개의 분류기로는 문제를 풀수가 없기 때문에
And, or 등의 여러 층을 쌓아서 문제를 해결함
- 가중치 편향: 여러개 가중치 곱하고 더해짐
- 활성화 함수: 계산된 가중합을 얼마 만큼의 신호로 출력할지를 결정
출처: https://lifelectronics.tistory.com/49
그림을 보면 입력값을 넘기면 1, 넘기지 않으면 0으로 됨
출처: https://reniew.github.io/12/
- 신경망이 경사하강법으로 학습을 진행할 때 미분이 필요함
- 주로 이진분류에서 사용
*기울기 소실: 기울기가 작아져서 시그모이드가 없어짐
출처: https://gooopy.tistory.com/55
- 기울기 소실 문제를 해결하기 위해 나옴
- 양의 값일 때 1이다
- 은닉층에서 많이 사용함
출처: https://bskyvision.com/427
- 다중 분류 문제에 적용할 수 있게 시그모이드 함수를 일반화한 활성화 함수
- 가중합 값을 소프트 맥스 함수에 통과 시키면 모든 클래스의 합이 1이되는 확률값으로 변환됨
즉, 그림을 보면 분자에 있는 지수 함수가 값의 편차를 키워서(작은값은 더 작게, 큰값은 더 크게) 소프트맥스 함수를 거친 1~K값을 모두 더하면 1이됨
출처: https://m.blog.naver.com/samsjang/221030487369