많은 사람들이 위의 세가지를 같은 것으로 알고있지만, 실은 명확한 차이가 있다. 먼저, AI(Artificial Intelligence)는 쉽게 컴퓨터 및 기계가 인간의 사고를 따라하는 것이라 생각하면 된다. 인간의 지능과 관련된 학습,문제해결, 패턴인식과 같은 문제를
neural network에 들어가기 앞서, 기본적인 개념으로 Tensor를 알고 넘어가야한다. 이는 수학적인 개념으로 데이터의 배열이라고 보면 된다. 우리가 흔히 아는 차원의 개념의 데이터는0차원 : scalar(스칼라)1차원 : vector(벡터)2차원 : matr
back propagtion은 쉽게 Neural Network의 가중치를 학습시킬 때 사용되는 알고리즘이다. 모델이 마지막 output layer에서 예측한 predicted value와 실제 값인 target value의 차이가 얼마인지 구한다.그 후, 그 오차 값을
인공지능은 x값(input)과 파라미터화된 함수 H를 통한 y값(output)으로 target값을 예측하는 것이다. 이때, 예측한 결과인 output과 target값 사이의 오차가 바로 loss이다. 다양한 방법으로 target값을 예측하고 loss를 정의하는 식도 다
딥러닝은 결국 모델이 실제 값 $y$와 차이 (loss) 가 최소화되는 값 $\\hat y$을 예측하게끔, 즉 올바른 값을 예측하도록 neuron의 weight 값을 update하는 것이다. 머신러닝과 다르게 train data의 feature,pattern등을 딥러
지난 글에 이어 overfitting을 해소하기 위한 Batch normalization과 Dropout에 대해서 작성해보고자 한다.
CNN은 Convolutional Neural Network의 약자로, 영상에서 객체, 클래스, 범주인식을 위한 패턴을 찾을때 사용되는 딥러닝(데이터로부터 직접 학습함) 모델이다. 오디오, 시계열과 같은 신호 데이터를 분류할 때도 효과적이다.이미지의 특징을 추출하는 계
영상이나 텍스트처럼 연속적인 특성을 가진 입력값들이 존재한다. 이는, input $x1$과 $x_2$가 서로 독립적이지않고, 어느정도의 연관성을 가지고 있다. 이러한, 연속성을 띄는 data를 modeling한 것이 바로 Temporal Modeling으로, 일반적인
transformer는 2017년 구글의 논문 "Attention is all you need"에서 나온 Attention만으로 구현한 모델이다. 기존의 RNN구조를 제거한뒤에도 높은 성능을 보인 모델 아키텍처이다. transformer구조를 배우기에 앞서, seq2
GAN(Generative Adversarial Networks)은 새로운 데이터를 생성하는 머신러닝 프레임워크의 한 종류이다. 위조 데이터를 생성하는 Generator network와 데이터의 위조여부를 판단하는 Discriminator network로 이루어져있다.