profile
아직 거북이지만 곧 앞질러 갈겁니다.
post-thumbnail

Face Recognition

Face Verification 얼굴 검증(Face Verification) Face Recognition Reference deeplearning.ai

2021년 8월 5일
·
0개의 댓글
post-thumbnail

U-Net

Image Segmentation 지금까지 다뤘던 내용은 사진파일에 분류하고자 하는 대상을 둘레 상자(bounding box)를 이용해서 표현을 하였다. 이번에 다룰 이미지 분할(image segmentation)은 이미지를 이루고 있는 모든 픽셀에 클래스를 부여하여

2021년 8월 5일
·
0개의 댓글
post-thumbnail

YOLO(Object Detection)

YOLO(You Only Look Once) 욜로(YOLO) 알고리즘은 실시간으로 물체의 둘레 상자(bounding box)를 찾는데 쓰인다. 욜로 알고리즘의 결과값은 $(pc, bx, by, bh, b_w, c)$로 표현이 된다. Output $p_c$: 물체가 존

2021년 8월 5일
·
0개의 댓글
post-thumbnail

Mobile Network(Transfer Learning)

Create the Dataset and Split it 케라스(Keras) 모듈을 이용하여 심층학습을 시도할 때, 디스크에 저장된 이미지 파일을 불러오는 것이 가장 간단하며 쉬운 방법이다. 이를 위해서는 imagedatasetfromdirectory() 함수를 이용

2021년 7월 31일
·
0개의 댓글
post-thumbnail

Residual Network

깊은 신경망은 복잡한 결정을 하는데 도움을 주는 것으로 알려져 있다. 하지만 실제로 신경망이 매우 깊어질 경우 미분값이 0으로 수렵하거나 값이 극도로 커지는 현상이 발생하여 학습 과정을 느리게 지연시킨다. Building Residual Block 위의 그림과 같이

2021년 7월 31일
·
0개의 댓글
post-thumbnail

CNN Application

이번 글에서는 텐서플로우를 이용하여 층을 설정하고 심층학습을 해보도록 하자Layers in TF Keras: tf.keras케라스(Keras)는 파이썬으로 작성된 오픈소스 신경말 라이브러리로 텐서플로우 위에서 층을 설정할 때 불러오게될 모듈에 해당한다.Sequentia

2021년 7월 31일
·
0개의 댓글
post-thumbnail

CNN

Convolutional Neural Networks Zero padding 패딩을 추가하는 이유는 합성곱을 하는 과정에서 입력값의 크기가 줄어드는 것을 방지하기 위함이다. 이는 깊은 신경망을 만드는데 매우 중요한 부분이며 합성곱을 한 후에도 결과값의 부피가 줄어들지

2021년 7월 31일
·
0개의 댓글
post-thumbnail

CNN Basic

합성곱(Convolution)은 하나의 함수와 또 다른 함수를 반전 이동하여 값을 곱한 다음 구간에 대한 적분을 통해 새로운 함수를 구하는 연산자에 해당한다. 합성곱을 이용하면 이미지 간의 특징을 추출할 수 있는 필터링을 할 수 있다.합성곱의 연산을 이용하면 수직 혹은

2021년 7월 29일
·
0개의 댓글
post-thumbnail

Normalization

일반적으로 정규화는 통계에서 평균과 표준편차를 통일되게 맞추어 통계적 접근을 용이하고 쉽게하기 위함에 있다. 하지만 이러한 용도 이외에 심층학습에서 정규화는 신경망의 보다 용이한 학습을 도와준다고 알려져 있다. Batch Normalization 위의 사진을 보게되면

2021년 7월 27일
·
0개의 댓글
post-thumbnail

Optimization

Mini-Batch Gradient Descent Momentum Adam Reference deeplearning.ai

2021년 7월 27일
·
0개의 댓글
post-thumbnail

Regularization

L2 Regularization The cost function of L2 regularization is as follows: $$\ J{regularized} = -\frac{1}{m}\sum(y^{(i)}\log{a^{L}}+(1-y^{(i)})\log{(1-a^

2021년 7월 26일
·
0개의 댓글
post-thumbnail

Initialization

Initialization의 장점 Speed up the convergence of gradient descent Increase the odds of gradient descent converging to a lower training (and generalizati

2021년 6월 30일
·
0개의 댓글
post-thumbnail

[MySQL]0.EXIST, IN

MySQL에서 흔히 사용되는 EXIST와 IN이 작동하는 방식을 이해해 보자.

2021년 5월 8일
·
0개의 댓글