[의문 해결]AI, 머신러닝, 딥러닝

OasisGorilla·2024년 10월 12일
0

ai 공부에 필요한 수학적 기초만 다지다가 슬슬 ai의 이론적인 부분 공부를 시작했다.
이론적인 부분에 들어가기 전 AI와 머신러닝, 딥러닝이 어떻게 관련돼있는지
전체적인 지도를 그려두고 내 위치를 확인해가며 공부할 예정이다

gpt로 먼저 시작점을 잡고, 구글링을 하는 방법으로 공부했다.

최초 개념은 TCP school에서 제공하는 자료를 참고하여 공부했다.
이해가 쏙쏙되는 기가 막힌 도식이 있다. 참조링크

AI(Artifical Intelligence)

먼저 AI는 가장 포괄적인 개념이다.
ibm이나 구글클라우드에서 제공하는 자료 외에 다양한 블로그를 참조했을 때, 공통된 내용은 아래와 같았다. 참조링크1, 참조링크2, 참조링크3

  • 머신러닝, 딥러닝, 자연어처리, 컴퓨터 비전 등 관련된 모든 것을 포함한 개념
  • 인간처럼 행동하는 시스템
  • 컴퓨터 과학과 데이터를 결합하여 문제해결을 가능하게 하는 분야

머신러닝(Machine Learning)

머신러닝은 컴퓨터가 스스로 학습할 수 있도록 도와주는 알고리즘이나 기술을 개발하는 분야이다.
대부분의 자료에서 아래와 같이 그 하위분야를 나눴다.

  • 지도 학습
    레이블이 있는 데이터를 사용하여 모델 학습
  • 비지도 학습
    레이블이 없는 데이터를 기반으로 데이터의 패턴을 찾는 방법
  • 강화 학습
    에이전트가 환경과 상호작용하며 보상을 통해 학습하는 방법

위 세가지가 핵심적인 부분이고, 추가로 반지도 학습이나 자기 지도 학습 등의 분류도 있다.

딥러닝(Deep Learning)

딥러닝은 여러 층을 가진 인공신경망을 사용하여 머신러닝 학습을 수행하는 분야로, 머신러닝의 하위 분야이다.
여러 자료에서 설명하는 내용을 종합했을 때, 머신러닝에서 한 발 더 나아간 머신러닝의 한 종류로 나는 이해했다.
머신러닝과 딥러닝을 가르는 중요 개념은 신경망을 사용하냐 아니냐 차이다.
"머신러닝 + 신경망 = 딥러닝"
이런 느낌으로 이해했다.
여기까지 오면 이제 최신 ai기술에 한발짝 들인 것과 같다.

  • 인공 신경망 (Artificial Neural Networks, ANN)
  • 합성곱 신경망 (Convolutional Neural Networks, CNN)
  • 순환 신경망 (Recurrent Neural Networks, RNN)
  • 장단기 메모리 신경망 (Long Short-Term Memory, LSTM)
  • 그래프 신경망 (Graph Neural Networks, GNN)
  • 자연어 처리(NLP) 모델
  • 생성적 적대 신경망 (Generative Adversarial Networks, GAN)
  • 오토인코더 (Autoencoder)
  • Transformer 모델
  • Deep Q-Network(DQN)
  • 대규모 사전 학습 모델 (Large Pre-trained Models)
  • 멀티모달 모델 (Multimodal Models)

LSTM을 사용해서 자연어 처리를 하다 sentenceTransformer의 놀라운 성능 차이를 경험했었던 기억이 있다. LSTM은 1997년에 처음 발표되었고, sentenceTransformer의 기반이 되는 SBERT는 22년 뒤인 2019년에 발표되었다고 한다.

대 AI 시대의 서막을 열었다고 하는 transformer 모델은 2017년에 발표가 되었다고 한다.

아직 내 공부 수준은 머신러닝 어딘가에 머물러 있다.
기초를 닦고 이전 기술들을 가볍게 공부하고나서 빠르게 지금 쓰이는 최신 기술들을 위주로 공부할 예정이다.

0개의 댓글