레이블이 지정되지 않은 광범위한 데이터 집합에 대해 훈련된 대규모 인공 지능 모델로, 광범위한 다운스트림 작업에 적용할 수 있는 AI모델다양한 양식의 레이블이 지정되지 않은 데이터 세트(language, time-series, tabular, ...)에 대해 self-
1. 파이토치(PyTorch) PyTorch는 딥러닝을 위한 오픈소스 머신러닝 프레임워크이다. Pythonic한 문법과 동적 계산 그래프(Dynamic Computational Graph) 지원으로 직관적인 코드 작성이 가능하다. PyTorch의 Tensor는 Num
딥러닝을 위한 오픈소스 머신러닝 프레임워크이다. Pythonic한 문법과 동적 계산 그래프(Dynamic Computational Graph) 지원으로 직관적인 코드 작성이 가능하다. PyTorch의 Tensor는 NumPy 배열과 매우 유사하지만, GPU 연산을
해당 글은 FastCampus - '모두를 위한 2025 AI 바이블 : AI Signature' 강의를 듣고, 추가 학습한 내용을 덧붙여 작성하였습니다. 1. 데이터 셋 cloning 날씨 이미지 데이터 세트 Reference: https://www.kaggle.
Deep Neural Networks (DNN)을 학습시켜 문제를 해결하는 기술인공신경망(Artificial Neural Networks)의 확장된 개념뉴런(Neuron)들로 구성된 신경망이 데이터를 학습하여 문제를 해결하는 함수 역할을 함기존보다 깊은 신경망 구조를
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.Inner Product (내적) 또는 Dot Product (점곱) 이라고도 불림딥러닝의 핵심 연산 중 하나Matrix(+ vec
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.우리의 목적은 데이터를 입력했을 때, 원하는 출력을 반환하는 가상의 함수를 모사하는 것Linear Layer를 통해 이러한 함수를
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.함수 입력값(x) 변화에 따른 출력값(y) 변화 비율두 점이 무한히 가까워질 때 접선의 기울기 개념으로 도입미분은 이 접선의 기울기
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.우리의 목표는 주어진 데이터를 바탕으로 결과를 반환하는 함수를 모사하는 것세상에는 선형적인 관계를 가지는 데이터가 많음예: 키 vs
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.이진 분류(Binary Classification) 문제에 초점을 맞춘다어떻게 ? → Linear Regression + Sigmo
해당 글은 FastCampus - '[skill-up] 처음부터 시작하는 딥러닝 유치원 강의를 듣고, 추가 학습한 내용을 덧붙여 작성하였습니다. 1. Linear 모델의 한계 세상에는 선형 관계로는 해석할 수 없는 비선형 데이터들이 넘쳐남 e.g. 이미지, 텍스트,
해당 글은 FastCampus - '[skill-up] 처음부터 시작하는 딥러닝 유치원 강의를 듣고, 추가 학습한 내용을 덧붙여 작성하였습니다. 1. 문제점: Layer가 많아졌을 때는? $$ Loss = {1 \over N}\sum{i=1}^N(yi-ŷ_i)^2
해당 글은 FastCampus - '[skill-up] 처음부터 시작하는 딥러닝 유치원 강의를 듣고, 추가 학습한 내용을 덧붙여 작성하였습니다. >해당 글은 FastCampus - '[skill-up] 처음부터 시작하는 딥러닝 유치원 강의를 듣고, 추가 학습한 내용을
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.$$Loss= {1 \\over N} \* \\sum\_{i=1}^{N} (y_i - ŷ\_i)^2$$전체 데이터셋의 Loss를 기
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.데이터로부터 자동으로 학습되지 않지만 모델 성능에 영향을 주는 설정값으로,사용자가 직접 설정하며, 주로 실험적 튜닝이 필요↔ Mod
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.$$\\theta ← \\theta - \\eta \\nabla \_ \\theta L(\\theta)$$$$\\eta$$: Lea
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.우리의 목표: 학습 데이터뿐 아니라 새로운 데이터(unseen data)에 대해서도 잘 예측하는 모델→ 즉, Training err
Precision & Recall
다중 분류, Softmax, Cross Entropy에 대해 정복해보자.
해당 글은 FastCampus - 'skill-up 처음부터 시작하는 딥러닝 유치원 강의를 듣고,추가 학습한 내용을 덧붙여 작성하였습니다.Overfitting(과적합)을 방지하기 위해 Generalization Error를 줄이는 다양한 기법일반적으로 training