
📌 AI vs ML vs DL의 차이, 규칙기반 vs 머신러닝 접근 방식, 실제 활용 사례, 시대별 발전의 흐름
📦 install & import Code

📌 딥러닝의 기본 개념부터 단일/다층 신경망 구조, 활성화 함수, MNIST 숫자 분류 예제까지 || PyTorch, TensorFlow, ReLU, Softmax, Cross-Entropy, Dropout

📦 Lab: Install and Import Packages || 📦 Lab: Multilayer Network on the MNIST Digit Data

📌 딥러닝의 이미지 분류 성공 배경과 CNN의 구조, 핵심 연산 원리 || CIFAR-100, Convolution, Pooling, Feature Map, Data Augmentation, ResNet50

📦 Lab: CNN on CIFAR 100 data || 📦 Lab: Using Pretrained CNN Models

📌 IMDB 감성 분석과 NYSE 시계열 예측이라는 두 사례 || BoW, RNN, LSTM, 워드 임베딩, Autoregression, 그리고 시계열 분해까지 자연어와 시계열 데이터를 다루는 다양한 방식과 성능

📌 딥러닝이 잘 작동하는 조건 || SGD, Backpropagation, Dropout, Data Augmentation, Double Descent || 이미지 분류, 시계열 예측, 신경망 최적화의 비볼록성, 그리고 overfitting을 뚫는 일반화의 방법

📦 Lab: IMDB Document Classification || 📦 Lab: RNN for Document Classification || 📦 Lab: RNN for Time Series Prediction

📌 인공 신경망의 구조와 퍼셉트론 학습 원리 || 퍼셉트론의 논리 연산, 수식, 학습 알고리즘, XOR 문제와 MLP 구조, 역전파 알고리즘

📌 다층 퍼셉트론(MLP) || 입력층, 출력층, 은닉층, 역전파 알고리즘, 순방향전파, 손실함수, 역방향전파

📌 다층 퍼셉트론(MLP)_2 || 입력층, 출력층, 은닉층, 역전파 알고리즘, 순방향전파, 손실함수, 역방향전파

📌 풀배치학습, 온라인학습, 미니배치학습 || 여러 학습률 적용 알고리즘

📌 케라스와 텐서플로우 || 신경망 모델 구성과 하이퍼파라미터

📌 그래디언트 소실, 손실 함수 선택, 가중치 초기화, 정규화, 과적합

📦 MNIST 필기체 숫자 인식 || 📦 패션 아이템 분류 📦 ||타이타닉 생존자 예측하기