post-thumbnail

[논문 리뷰] SSD: Single Shot MultiBox Detector

작성계기 회사에서 논문을 읽고 있는데, 화요일마다 리뷰시간이 있어서 공부겸 다시 정리 Abstract multiple feature map을 사용해서 output 공간을 여러개로 나눔 각 feature map을 여러 비율과 스케율로 default box를 생성하고 모

2021년 12월 9일
·
0개의 댓글

[DL] 손글씨 숫자 인식 from dataset.mnist import load_mnist 해결

오잉.. 책 따라서 코드 실행시켜보면 부모디렉토리를 못찾길래 절대경로로 해줬더니너무 잘된다.만약 같은 에러가 난다면 절대경로로 하십쇼 !아! 그리고 코드저장소는 밑바닥부터 시작하는 딥러닝 github 여기에 있다.

2021년 11월 28일
·
0개의 댓글
post-thumbnail

[DL] 손글씨 숫자 인식

이번에는 이미 학습된 매개변수를 사용하여 학습 과정을 생략하고, 추론 과정만 구현이 추론 과정을 신경망의 순전파(forward propagation)이라고도 한다.MINIST 데이터셋은 손글씨 숫자 이미지 집합으로, 기계학습 분야세어 유명한 데이터셋이다. 0부터 9까지

2021년 11월 28일
·
0개의 댓글
post-thumbnail

[DL] 항등함수와 소프트맥스 함수 구현하기

항등함수는 입력을 그대로 출력한다. 입력과 출력이 항상 같다는 뜻의 항등이다.분류에서 사용하는 소프트맥스 함수의 식은 다음과 같다.exp(x): 지수함수n: 출력층의 뉴런 수$y_k$: 그 중 k번째 출력분자는 입력신호 $a_k$의 지수함수, 분모는 모든 입력 신호의

2021년 11월 25일
·
0개의 댓글
post-thumbnail

[DL] 3층 신경망 구현하기

위 그림에서처럼 가중치와 은닉층 뉴런의 오른쪽 위에는 (1)이 붙어있다. 이는 1층의 가중치, 1층의 뉴런임을 뜻한다.가중치의 오른쪽 아래의 두 숫자는 차례로 다음 층 뉴런과 앞 층 뉴런의 인덱스 번호이다.$w^{(1)}\_{1 \\ 2}$ 의 의미는 앞층의 2번

2021년 11월 24일
·
0개의 댓글

[DL] 다차원 배열의 계산

다차원 배열도 그 기본은 '숫자의 집합'차원의 수는 np.ndim()함수로 알 수 있고, 배열의 ㅎ여상은 인스턴스 변수인 shape으로 알 수 있다. 1차원 배열에서 shape이 튜플로 반환하는 것은 다차원 배열일 때와 통일된 형태로 결과를 반환하기 위한 것임을 기억!

2021년 11월 24일
·
0개의 댓글

[DL] ReLU 함수

ReLU는 최근에 주로 사용하게 된 활성함수의 하나!입력이 0이 넘으면 그 입력을 그대로 출력하고, 0이하면 0을 출력하는 함수이다.(sigmoid는 신경망 분야에서 오래전부터 이용했던 함수)수식은 다음과 같이 나타낼 수 있다.$h(x) = \\begin{cases}

2021년 11월 24일
·
0개의 댓글

[DL] sigmoid vs step function

이전 내용 참고https://velog.io/@u_jinju/DL-활성함수앞선에 작성했던 sigmoid와 step function 의 차이를 알아보려한다.제일 큰 것은 '매끄러움'의 차이.sigmoid는 곡선을 띄는 방면, step function은 각이져있다

2021년 11월 23일
·
0개의 댓글
post-thumbnail

[DL] 활성함수(Activation Function)

입력 신호의 총합을 출력 신호로 변환하는 함수즉, 이름 그대로 활성화 함수는 입력 신호의 총합이 활성화를 일으키는지를 정하는 역할을 한다.$h(x) = \\frac{1}{1+e^{-x}}$위 식은 sigmoid를 식으로 나타낸 식이다.$h(x) = \\begin{cas

2021년 11월 23일
·
0개의 댓글

[DL] 퍼셉트론 간단 정리

chaper 2까지의 정리 (p.62)퍼셉트론은 입출력을 갖춘 알고리즘이다. 입력을 주면 정해진 규칙에 따른 값을 출력한다.퍼셉트론에서는 '가중치'와 '편향'을 매개변수로 설정한다.퍼셉트론으로 AND, OR 게이트 등의 논리 회로를 표현할 수 있다.XOR 게이트는 단층

2021년 11월 23일
·
0개의 댓글
post-thumbnail

[DL] AND / NAND / OR 가중치 편향 구현

밑바닥부터 시작하는 딥러닝1 책을 공부하면서 (개인 책이 아니기 때문에) 메모할 내용들을 여기에 적기위해서 작성 내용은 퍼셉트론(2장) 부분을 공부 중에 있음w1, w2라고 하는 가중치는 각 입력 신호가 결과에 주는 영향력(중요도)을 조절하는 매개변수뉴런이 얼마나 쉽게

2021년 10월 30일
·
0개의 댓글
post-thumbnail

[ML] Training / Testing data set

Last lecture 지난 시간동안 데이터를 통해 학습을 시킴 이 모델이 얼마나 훌륭한지 / 성공적으로 예측 할 수 있는지를 평가하는 방법이 무엇일까? Evaluation 이러한 데이터가 있을 때 (training set) 모델을 학습을 시키고 다시 이 trai

2021년 7월 18일
·
0개의 댓글

[ML] Learning rate / Overfitting / Regularization

그래프의 learning rate를 조절하는 알파값을 임의로 정해줌minimize할 때 learning rate를 지정하여 값을 정해줌rate의 값을 크게 줬을 때는 어떤 점에서 시작하게 되면 경사면의 step이 굉장히 크게되는데 이러한 경우 값의 범위를 넘어버리는 경

2021년 7월 10일
·
0개의 댓글
post-thumbnail

[ML] Softmax regression

H(x)의 함수는 100, 200, -10 과 같이 큰 값의 결과를 얻어내기 때문에 z라는 압축된 수로 나타내길 원함따라서 아무리 큰 값이더라도 0-1사이의 값으로 나타낼 수 있음g(z)의 식은 다음과 같이 나타낼 수 있으며, 이 식을 sigmoid 또는 logisti

2021년 7월 6일
·
0개의 댓글
post-thumbnail

[ML] Logistic (regression) classification: Cost function & gradient decent

Cost function의 식은 위의 식으로 나타냄이것을 linear로 hypothsis를 주면 위의 그래프로 그려낼 수 있음가설이 0-1의 값으로 바뀌어 H(X)의 식이 오른쪽 식으로 변경됨H(x)의 경우 제곱으로 인해 구부러진 그래프가 되고 어느점에서 시작하든 최소

2021년 7월 6일
·
0개의 댓글
post-thumbnail

[ML] Logistic (regression) Classification

linear 하게 나타나있음 (식)가설로 세운 linear가 얼마나 가깝고 먼가의 값이 cost학습을 한다는 것은 우리가 가지고 있는 데이터에서 cost가 최소화되는 weight를 찾아야함cost 함수를 미분한 값이 기울기 한번에 얼마나 움직일까가 알파 (step si

2021년 7월 6일
·
0개의 댓글

[DL] 딥러닝 용어 정리

Convolutional neural network, CNN (합성곱) 시각적 영상을 분석하는데 사용되는 다층의 피드-포워드 인공신경망의 한 종류. 딥러닝에서 심층 신경망으로 분류되며, 시각적 영상 분석에 주로 적용 영상 및 동엿아 인식, 추천시스템, 영상 분류, 의료

2021년 6월 28일
·
0개의 댓글
post-thumbnail

[논문 리뷰] R-CNN (Regions with CNN features)

RCNN은 컴퓨터비전에서 CNN을 사용한 obejct detection 기술 초기에 엄청난 영향을 미친 논문이다. 회사가 CNN 기반 비전기술로 이 논문의 영향이 있기에 읽게 되었다. 이 논문을 구체적으로 읽기보단 전반적인 시스템이 어떻게 돌아가는지에 대해 초점을 두고

2021년 6월 12일
·
0개의 댓글
post-thumbnail

[ML] Multi-variable linear regression

input이 1인 경우에는 data가 위의 그림처럼 나오게되고, 하나의 x와 하나의 y로 결과값이 나오게 된다. 여러 개의 input인 경우, 즉 x1, x2, x3와 같이 three inputs 인 경우에 위 그림과 같이 quiz 1과 quiz 2, mid 1 점수를

2021년 5월 21일
·
0개의 댓글

[ML] minimize Cost Linear Regression 원리

(1)의 Hopothesis를 기반하여 실제 모델이 (2)의 실제 값과 얼마큼 차이가 있는가 원래 정의했던 Hypothesis에서 b의 값을 제외시켜 간단하게 hypothesis를 정의하여 Cost가 어떻게 될지 구해볼 것이다. W = 2일 때, Cost(W)의 값은

2021년 5월 20일
·
0개의 댓글