# softmax

11개의 포스트
post-thumbnail

활성화 함수(activation function)

딥러닝 네트워크에서 노드에 들어오는 값들에 대해 바로 다음 레이어로 전달하지 않고 비선형 함수를 주로 통과 시킨 후에 전달한다. 이 때 사용하는 비선형 함수를 활성화 함수(activation function)이라고 한다.비선형 함수를 사용하는 이유는 멀티퍼셉트론을 경우

6일 전
·
0개의 댓글
post-thumbnail

Reuters News Classification (로이터 뉴스 분류하기)

이번 글에서는 kears.datasets안에 있는 reuters 데이터에 대해 분류해 보겠다.불러온 데이터셋을 트레이닝 세트와 테스트 세트로 나눠주자.모양을 확인해보자.8982개의 훈련용 뉴스 기사, 2246개의 테스트용 뉴스 기사,46개의 카테고리를 확인할 수 있다.

2021년 8월 26일
·
0개의 댓글
post-thumbnail

Python Basics with Numpy

sigmoid_derivative(x)=f(x)(1-f(x))(length, height, 3)를 넣으면 벡터값(length x height x3, 1)을 리턴해주는 함수axis = 1, keepsdim =1 에 대한 설명은 여기 참고하면 도움이 된다.

2021년 8월 17일
·
0개의 댓글
post-thumbnail

AI Tech 1주차 - DAY 3

선형모델과 활성함수를 합성한 함수 $d$개의 변수 $x_1, ..., x_d$ \* $w\_{ij}$ 연산 => $p$개의 선형모델 $o_1, ..., o_p$이때, 선형모델로 출력된 값은 확률벡터가 아닌 경우가 많기 때문에, 특정 벡터가 어떤 class 에 속할 확률

2021년 8월 5일
·
0개의 댓글
post-thumbnail

선형 회귀와 로지스틱 회귀

이번 포스팅에서는 선형회귀(Linear Regression)와 로지스틱 회귀(Logistic Regression)에 대해 알아보려 한다. 회귀(Regression) 회귀분석(Regression Analysis) 이란 통계학에서 전통적으로 많이 사용되던 분석 방법이다.

2021년 7월 23일
·
0개의 댓글
post-thumbnail

CS213n Assignment1 Softmax 설명(주관적)

둘의 코드 구조 자체와 해석하는 개념 자체가 비슷하기 때문에, 둘이 비슷하게 해석하겠다!바로 전체 코드부터 들어가겠다.svm이랑 구조상에서 크게 다른점은 별로 없다. W,X,y값들을 통해서 class수와 unit수 등을 얻는건 당연하고, 이걸 1대1로 매핑시켜서 inp

2021년 7월 11일
·
0개의 댓글
post-thumbnail

Softmax Regression

softmax regression이란 : 함수를 통해 분류해야 되는 정답지(클래스)의 총 개수를 k라고 할 때, k차원의 벡터를 입력 받아서, 각 클래스에 대한 확률을 추정하는 회귀방식. Softmax Regression를 활용할 수 있는 상황 _ 1. binary

2021년 5월 3일
·
0개의 댓글
post-thumbnail

iris classification with ZERO SCIKIT_LEARN

hands-on 서적을 참고한 글입니다.목표사이킷런 (scikit-learn) 을 사용하지 않고softmax로 붓꽃 분류를 해보자.(데이터셋 임포트를 위한 sklearn 사용은 제외)github 레포지토리colab 링크편향 특성을 추가한다. (1로 초기화)sklearn

2021년 4월 4일
·
0개의 댓글
post-thumbnail

Multinomial Logistic Regression - [Softmax 함수, Cross Entropy ]

다항 로지스틱 회귀(Multinomial Logistic Regression)는 종속변수가 범주 형이면서 3개 이상의 범주를 가질때, 적용할 수 있는 Logistic Regression 모델입니다.

2021년 3월 19일
·
0개의 댓글

logit, sigmoid, softmax의 관계

왜 NN의 출력층에 sigmoid, softmax 함수를 사용할까요? 이는 출력층의 값을 '확률'로서 표현하기 위한 필연적 결과입니다. 본 글에서는 logit, sigmoid, softmax의 관계에 대해서 정리해보았습니다.

2020년 6월 6일
·
0개의 댓글