CNN ( Convolutional Neural Network )
참조 글/ 출처: http://taewan.kim/post/cnn/
흑백은 하나의 채널, 컬러사진은 RGB 3개의 채널구성


feature map에 Activation function 사용 (비선형 변경)
( 중간층 주로 사용하는건 ReLU(음수,0->0 / 양수-> 양수) !
기울기 소실 문제 덜 발생해서.
각각 함수 개념 설명 : https://89douner.tistory.com/22
선형 함수만 사용하면 단순하다.
층이 깊어질 수록 비선형 변환이 누적이 되면서 신경망은 점점 더 복잡한 패턴을 학습 할 수 있는 능력을 가지게 된다.
예를 들어, 처음 몇 개의 층은 이미지에서 간단한 엣지나 텍스처를 감지하는 역할을 할 수 있고, 그다음 층들은 더 복잡한 형태나 구조를 인식하며, 마지막으로 객체 전체를 인식하는 데 이르기까지 복잡성이 점차 증가합니다.
참조 :https://modulabs.co.kr/blog/nonlinear_activation_func/

activation map의 크기를 줄이거나 특정 데이터 강조를 위한 용도. 지나가면 행렬의 크기 감소, 채널 수 변경은 없음 .
Max / Min / Average Pooling 있다 .

: (input과 filter의 ) 합성곱 연산 수행해서 feature map 생성
: featrue map에 활성화 함수 사용
해서 비선형성 추가 -> 주로 RELU 사용
: Activation map의 크기를 줄이고 중요 정보 유지
: 추출한 특징을 바탕으로 모든 뉴런이 서로 연결된다.
1차원 벡터로 Flatten 한 후, 이 백터를 fully connectied layer 로 전달 .
: 마지막에는 이 입력된 이미지가 각 클래스에 해당될 확률을 계산 .
가장 높은 확률을 가진 클래스가 최종 예측 결과로 선택 . (다중 클래스 분류)
ex) 자동차 이미지 였는데 자동차 0.7 , 강아지 0.2 , 고양이 0.1 이런식으로 (모든 클래스에 대한 확률의 합은 항상 1)
