딥러닝은 입력과 출력의 관계를 잘 설명 가능한 복잡한 함수식의 가중치를 찾는 과정입니다.또, 딥러닝의 학습은 손실 함수를 최소화하는 인공 신경명의 가중치와 편향을 찾는 과정을 말합니다.저는 딥러닝의 키포인트를 네 가지라고 생각합니다. 이들은 각각 활성화 함수, 손실함수
선형회귀(Linear Regression)란 가장 간단하며 딥러닝(Deep Learning)의 기초가 되는 머신러닝(Machine Learning)알고리즘으로, 데이터를 가장 잘 표현하는 일차함수식을 만드는 것 이다. 일반적으로 우리가 알고있는 일차함수식은 {x:
다중 선형회귀란? 앞서 다룬 x가 1개인 선형회귀를 단순 선형회귀라고 합니다(Simple Linear Regression)이라고 합니다. 이번 게시글에서는 다수의 x값으로부터 y를 예측하는 다중 선형 회귀(Multivariable Linear regression)에
로지스틱 회귀(Logistic Regression)는 지금까지 설명드린 단순|다중 선형 회귀(Linear Regression)의 종속변수(Y)가 연속형 이였던것에 반해, 종속변수(Y)가 범주형이면서 결과가 이진수(0 OR 1)일때 사용합니다. 이를 이용해 어떤 사건(e
전 게시글에서 로지스틱 회귀(Logistic Regression)를 통해 2개의 선택지 중에서 1개를 고르는 이진 분류(Binary Classification)를 해결하는 딥러닝 모델을 설계 해봤습니다.이번에는 다항의 선택지중에서, 1개를 선택하는 다중 로지스틱 회귀(
합성곱 신경망(CNN : Convolution Neral Network)이란? - 개요 이번 게시글에서 다룰 합성곱 신경망(CNN : Convolution Neral Network/ 이하 CNN)은 인간의 시신경 구조를 인공적으로 모방한 기술로써 이미지의 공간 정보(
순환 신경망(Recurrent Neural Network, RNN)은 입력과 출력을 시퀀스 단위로 처리하는 시퀀스(Sequence) 모델입니다.챗봇을 생각해보시면 편하실 겁니다.입력은 챗봇에게 하고자 하는 단어의 시퀀스인 문장이고,출력에 해당되는 챗봇의 대답 문장 또한
장단기 메모리(LSTM:Long Short-Term Memory)란? 장단기 메모리(LSTM:Long Short-Term Memory)는 기존 순환 신경망( RNN :Recurrent Neural Network)의 문제인 기울기 소멸 문제(vanishing gradi
생성적 적대 신경망(GANs: Generative Adversarial Networks)이란? 2014년 이안 굿펠로우(Ian Goodfellow)에의해 제시된 생성적 적대 신경망(GANs: Generative Adversarial Networks)모델은 쉽게 설명하