광주인공지능사관학교 pre-course_정리2

손예진·2022년 7월 17일
0

이번에는 ai 이론에 대해서 작성하겠다.

  1. 머신러닝을 위한 3가지

    • 입력 데이터: 사람의 음성 데이터, 고양이 이미지 데이터
    • 예상 출력값: 원고형태의 데이터, '강아지' 태그 데이터
    • 알고리즘 정확도 측정법

    "예상하는 결과에 더 가깝게 접근 할 수 있도록 하는 표현. 즉, 입력 데이터의 유용한 표현을 학습하는 것"

  2. 딥러닝
    : 딥러닝은 머신러닝의 특정 하위 분야로, 표현들을 점점 더 의미있게 만들어 가는 연속 계층들을 학습하게 하는 데 중점을 두고 데이터 표현을 학습하는 새로운 방법

  3. 신경망
    : 신경 생물학에서 차용
    : 뇌를 이해한 데서 얻은 영감을 통해 부분적으로 개발

    1. 뉴런은 네트워크를 형성한다.
    2. 여러 뉴런에 전달되는 신호의 합이 일정크기(임곗값)을 넘지 않으면 뉴런은 전혀 반응하지 않는다.
    3. 여러 뉴런에 전달되는 신호의 합이 일정 크기 임곗값을 넘으면 뉴런이 반응하며, 다른 뉴런에 일정 강도의 신호를 전달한다.
    4. 2와 3에서 여러 뉴런에 전달되는 신호의 합은 신호마다 가중치가 다르다.
    • 학습: 신경망에서 모든 계층의 가중치에 대한 값 집합을 찾아, 새로운 입력값이 목표한 값에 올바르게 사상할 수 있도록 하는 반복작업
  1. 손실함수
    :손실함수는 실제 결과값과 신경망이 예츠간 결과값을 가지고 거리점수를 계산하여 특정사례에서 신경망이 얼마나 잘 수행되었는지 계산. 딥러닝은 이 점수를 피드백 신호로 사용해 현재 사례의 손실 점수를 낮추는 방향으로 무작위 가중치값들을 조금씩 조절해 나감
    :이러한 조절 방식은 주로 역전파 알고리즘을 통해 구현함.

  2. 역전파 알고리즘
    :역전파 알고리즘은 우선은 가볍게 신경망의 손실점수를 낮춰주는 하나의 방식이다라고 알고 있음 됨.
    :손실이 최소화 된 신경망은 우리가 원하는 값이 게장 근접한 출력을 낼 수 있으며 이는 곧 가장 잘 훈련된 신경망이라고 할 수 있음

  3. 지도학습
    : 레이블된 훈련 데이터를 활용하여 모델을 학습하여 모델을 학습시켜 본적 없는 가까운 미래 데이터에 대해 예측값을 출력하는 것
    :회귀(Regression), 분류(Classification)

  4. 회귀
    : 데이터가 주어졌을 때 연속적인 출력값을 예측하는 기법.
    머신러닝 알고리즘은 입력 데이터와 출력값이 주어졌을 때 두 변수 사이의 관계를 탐색
    :입력값 x와 결괏값y가 주어지면 각 데이터와 직선 사이 거리가 최소가 되는 직선을 그을 수 있는데, 일반적으로 평균 제곱 거리를 사용함. 이렇게 머신러닝을 통해 학습한 기울기와 절편을 사용하면 새로운 데이터의 출력값을 예측할 수 있다.

  5. 강화학습
    :과거 강화 학습은 머신러닝의 한 분야로 조그맣게 소개되었지만 최근 들어 급격하게 떠오르고 있는 분야로 공부해야할 개념과 이론이 방대하다. 이를 적용한 사례도 이제서야 조금씩 모습을 드러내고 있는 추세
    :강화학습의 목표는 환경이란 개념과 상호작용하며 에이전트의 성능을 향상시키는 것. 환경의 현재 상태 정보는 보상 신호라는 것을 포함하기 때문에 강화학습을 지도학습과 관련된 분야로 생각할 수도 있지만 이 강화 학습의 피드백은 정답 레이블이나 수치가 아니다. 보상함수라는 것을 통해 에이전트가 취한 행동이 얼마나 좋은 행동인지 혹은 좋지 못한 행동인지를 측정한 값이다. 이러한 에이전트는 환경과 핑퐁하며 보상이 최대화 되는 일련의 행동을 강화 학습을 통해 학습한다. 대표적인 예는 게임
    :"보상"이 최대화 되는 "일련의 행동"을 학습

  6. 비지도 학습
    : 레이블되지 않은 데이터, 구조를 알 수 없는 데이터로 부터 의미 있는 정보를 추출, 데이터 구조를 탐색
    : 군집은 사전 정보 없이 쌓여있는 그룹정보를 의미있는 서브그룹 또는 클러스터로 조직하는 탐색적 데이터 분석 기법이다.
    :분석 과정에서 만든 각 클러스터는 어느 정도 유사성을 공유하고 다른 데이터(클러스터)와 구분되는 그룹을 형성함. 이처럼 군집은 정보를 조직화하고 데이터에서 의미있는 관계를 유도하는 훌륭한 도구임

  7. 차원축소
    : 고차원의 데이터를 저차원으로 축소하는 기법
    세상에는 의외로 고차원을 이루는 데이터가 상당히 많다. 이로 인해 머신러닝 알고리즘은 계산 성능과 저장 공간의 한계에 종종 맞닥뜨리곤 한다. 그렇다고 해서 무작정 이상치라 판단되는 데이터 일부를 제거하게 되면 이후 특정 알고리즘의 예측 성능을 감소시키는 불상사가 생기기도 한다. 그래서 이러한 상황을 극복하고자, 비지도 차원 축소 기법은 대부분의 정보를 유지하면서 더 작은 차원의 부분 공간으로 데이터를 압축시킴

profile
딥러닝 공부중 🦴

0개의 댓글