이번에는 ai 이론에 대해서 작성하겠다.
머신러닝을 위한 3가지
"예상하는 결과에 더 가깝게 접근 할 수 있도록 하는 표현. 즉, 입력 데이터의 유용한 표현을 학습하는 것"
딥러닝
: 딥러닝은 머신러닝의 특정 하위 분야로, 표현들을 점점 더 의미있게 만들어 가는 연속 계층들을 학습하게 하는 데 중점을 두고 데이터 표현을 학습하는 새로운 방법
신경망
: 신경 생물학에서 차용
: 뇌를 이해한 데서 얻은 영감을 통해 부분적으로 개발
손실함수
:손실함수는 실제 결과값과 신경망이 예츠간 결과값을 가지고 거리점수를 계산하여 특정사례에서 신경망이 얼마나 잘 수행되었는지 계산. 딥러닝은 이 점수를 피드백 신호로 사용해 현재 사례의 손실 점수를 낮추는 방향으로 무작위 가중치값들을 조금씩 조절해 나감
:이러한 조절 방식은 주로 역전파 알고리즘을 통해 구현함.
역전파 알고리즘
:역전파 알고리즘은 우선은 가볍게 신경망의 손실점수를 낮춰주는 하나의 방식이다라고 알고 있음 됨.
:손실이 최소화 된 신경망은 우리가 원하는 값이 게장 근접한 출력을 낼 수 있으며 이는 곧 가장 잘 훈련된 신경망이라고 할 수 있음
지도학습
: 레이블된 훈련 데이터를 활용하여 모델을 학습하여 모델을 학습시켜 본적 없는 가까운 미래 데이터에 대해 예측값을 출력하는 것
:회귀(Regression), 분류(Classification)
회귀
: 데이터가 주어졌을 때 연속적인 출력값을 예측하는 기법.
머신러닝 알고리즘은 입력 데이터와 출력값이 주어졌을 때 두 변수 사이의 관계를 탐색
:입력값 x와 결괏값y가 주어지면 각 데이터와 직선 사이 거리가 최소가 되는 직선을 그을 수 있는데, 일반적으로 평균 제곱 거리를 사용함. 이렇게 머신러닝을 통해 학습한 기울기와 절편을 사용하면 새로운 데이터의 출력값을 예측할 수 있다.
강화학습
:과거 강화 학습은 머신러닝의 한 분야로 조그맣게 소개되었지만 최근 들어 급격하게 떠오르고 있는 분야로 공부해야할 개념과 이론이 방대하다. 이를 적용한 사례도 이제서야 조금씩 모습을 드러내고 있는 추세
:강화학습의 목표는 환경이란 개념과 상호작용하며 에이전트의 성능을 향상시키는 것. 환경의 현재 상태 정보는 보상 신호라는 것을 포함하기 때문에 강화학습을 지도학습과 관련된 분야로 생각할 수도 있지만 이 강화 학습의 피드백은 정답 레이블이나 수치가 아니다. 보상함수라는 것을 통해 에이전트가 취한 행동이 얼마나 좋은 행동인지 혹은 좋지 못한 행동인지를 측정한 값이다. 이러한 에이전트는 환경과 핑퐁하며 보상이 최대화 되는 일련의 행동을 강화 학습을 통해 학습한다. 대표적인 예는 게임
:"보상"이 최대화 되는 "일련의 행동"을 학습
비지도 학습
: 레이블되지 않은 데이터, 구조를 알 수 없는 데이터로 부터 의미 있는 정보를 추출, 데이터 구조를 탐색
: 군집은 사전 정보 없이 쌓여있는 그룹정보를 의미있는 서브그룹 또는 클러스터로 조직하는 탐색적 데이터 분석 기법이다.
:분석 과정에서 만든 각 클러스터는 어느 정도 유사성을 공유하고 다른 데이터(클러스터)와 구분되는 그룹을 형성함. 이처럼 군집은 정보를 조직화하고 데이터에서 의미있는 관계를 유도하는 훌륭한 도구임
차원축소
: 고차원의 데이터를 저차원으로 축소하는 기법
세상에는 의외로 고차원을 이루는 데이터가 상당히 많다. 이로 인해 머신러닝 알고리즘은 계산 성능과 저장 공간의 한계에 종종 맞닥뜨리곤 한다. 그렇다고 해서 무작정 이상치라 판단되는 데이터 일부를 제거하게 되면 이후 특정 알고리즘의 예측 성능을 감소시키는 불상사가 생기기도 한다. 그래서 이러한 상황을 극복하고자, 비지도 차원 축소 기법은 대부분의 정보를 유지하면서 더 작은 차원의 부분 공간으로 데이터를 압축시킴