딥러닝_1주차

우주먼지·2020년 7월 13일
0

인공지능 사관학교

목록 보기
15/15

단층 퍼셉트론

일련의 퍼셉트론을 한줄로 배치하여 입력벡터 하나로부터 출력 벡터 하나를 단번에 얻어내는 아주 간단한 신경망 구조이다.

입력벡터로 부터 출력벡터를 얻어내려면은 출력벡터의 크기, 즉, 출력벡터가 담고있어야할 스칼라 성분의 수만큼의 퍼셉트론이 필요하다.(출력 개수 = 퍼셉트론의 수)

입력값과 각 입력값의 가중치 그리고 편향과 함께 출력값 하나를 계산하고 출력해준다.

입력벡터만 공유하고 각자의 파라미터에 따라 독립적으로 활동한다.

학습과정 중에 끊임없이 변경되어가면서 퍼셉트론의 동작 특성을 결정하는 값들 = 파라미터(= 모델 파라미터) 대표적인 예로는 편향, 가중치가 있다.

딥러닝의 학습목표는 문제풀이에 적합한 파라미터들의 조합을 구하는 것이다

입력을 1차처리하여 결과를 최종출력한 내용을 신경망에 추가하기도 한다. 최종적으로 출력을 나타내는 계층을 출력계층이라고 한다.
단층 퍼셉트론은 은닉계층없이 출력계층하나로만 이루어진 가장 간단한 퍼셉트론이다.

텐서 : 다차원 숫자 배열.
0차원은 스칼라, 1차원은 벡터, 2차원은 행렬. 이 모든게 텐서이다
이는 같은 문제일지라도 텐서를 이용해 처리하는 편이 프로그램도 간단하고 처리속도도 빠르기 때문에 중요하다.
딥러닝에서는 텐서연산을 사용하는 것이 매우 중요하다

미니배치 : 신경망이 여러 데이터를 한꺼번에 처리하는 방식.
배치는 모든 학습데이터를 한꺼번에 일괄처리하는 작업이고, 미니배치는 작업데이터를 잘라서 간단하게 처리하는 방식이다. 데이터의 효율성을 높여주며, 개별데이터의 특징을 무시하지 않으면서 특징에 너무 크게 휘둘리지 않음으로써 매우 유용하게 사용된다.

출력값은 반복문을 사용하여 계산하는 것보다 벡터의 내적을 이용하는 것이 훨씬 빠르다.

선형연산 : 입력 성분의 일차식으로 표현되는 과정.
비선형연산 : 일차식으로 나타낼 수 없는 연산(이 식을 활성화 함수라고 한다.)

에폭 : 학습데이터 전체에 대한 한차례 처리
하이퍼파라미터 : 학습과정에서 변경되지 않으면서 학습결과나 신경망구조에 영향을 미치는 요인.
에폭, 미니배치의 크기등이 있다.
문제유형, 신경망구조, 학습결과 등을 종합적으로 살펴보면서 이 값을 세밀하게 조절해야한다. 이를 통해 편차가 크게 나타나곤 한다.

회귀분석 : 어떤한 특징 값 하나를 숫자로 추정하여 출력한다.
이진판단 : 두개의 값 중 하나를 선택하여 출력.
선택분류 : 몇가지의 항목 중 하나를 골라 출력.

인공지능 알고리즘의 출력은 이 세가지 방법의 반복이거나 혼합이다.

회귀 : 옛날 상태로 돌아간다. 연속형 변수사이의 모형을 구한 뒤 적합도를 측정하는 분석방법.
입력으로 주어진 값을 근거로하여 미지의 변수값을 추정하고 예측하는데 주로 사용.

profile
안녕하세요 ㅎㅎ

0개의 댓글