ai 공부에 필요한 수학적 기초만 다지다가 슬슬 ai의 이론적인 부분 공부를 시작했다.
이론적인 부분에 들어가기 전 AI와 머신러닝, 딥러닝이 어떻게 관련돼있는지
전체적인 지도를 그려두고 내 위치를 확인해가며 공부할 예정이다
gpt로 먼저 시작점을 잡고, 구글링을 하는 방법으로 공부했다.
최초 개념은 TCP school에서 제공하는 자료를 참고하여 공부했다.
이해가 쏙쏙되는 기가 막힌 도식이 있다. 참조링크
먼저 AI는 가장 포괄적인 개념이다.
ibm이나 구글클라우드에서 제공하는 자료 외에 다양한 블로그를 참조했을 때, 공통된 내용은 아래와 같았다. 참조링크1, 참조링크2, 참조링크3
머신러닝은 컴퓨터가 스스로 학습할 수 있도록 도와주는 알고리즘이나 기술을 개발하는 분야이다.
대부분의 자료에서 아래와 같이 그 하위분야를 나눴다.
위 세가지가 핵심적인 부분이고, 추가로 반지도 학습이나 자기 지도 학습 등의 분류도 있다.
딥러닝은 여러 층을 가진 인공신경망을 사용하여 머신러닝 학습을 수행하는 분야로, 머신러닝의 하위 분야이다.
여러 자료에서 설명하는 내용을 종합했을 때, 머신러닝에서 한 발 더 나아간 머신러닝의 한 종류로 나는 이해했다.
머신러닝과 딥러닝을 가르는 중요 개념은 신경망을 사용하냐 아니냐 차이다.
"머신러닝 + 신경망 = 딥러닝"
이런 느낌으로 이해했다.
여기까지 오면 이제 최신 ai기술에 한발짝 들인 것과 같다.
LSTM을 사용해서 자연어 처리를 하다 sentenceTransformer의 놀라운 성능 차이를 경험했었던 기억이 있다. LSTM은 1997년에 처음 발표되었고, sentenceTransformer의 기반이 되는 SBERT는 22년 뒤인 2019년에 발표되었다고 한다.
대 AI 시대의 서막을 열었다고 하는 transformer 모델은 2017년에 발표가 되었다고 한다.
아직 내 공부 수준은 머신러닝 어딘가에 머물러 있다.
기초를 닦고 이전 기술들을 가볍게 공부하고나서 빠르게 지금 쓰이는 최신 기술들을 위주로 공부할 예정이다.