태그 목록
전체보기 (73)python(18)pandas(9)Preprocessing(6)scikit learn(6)전처리(5)terminal(3)정규화(3)matplotlib(3)pillow(3)Deep Machine Learning(3)seaborn(2)opencv(2)Backpropagation(2)Normalization(2)오차역전파법(2)package(2)밑바닥부터 시작하는 딥러닝(2)Regression(2)github(2)ubuntu(2)Regularization(2)까만건 배경이오(1)regular expression(1)multiprocessing(1)결측치(1)IQR(1)Standford(1)멀티태스킹(1)런타임(1)regx(1)jupyter notebook(1)wine(1)이미지(1)scalar case(1)optimization(1)신경망(1)histogram(1)isalpha(1)softmax(1)Image Classifier(1)rgb(1)원-핫 인코딩(1)lambda(1)Module(1)collections(1)train_test_split(1)땡겨오자(1)공유(1)PIL(1)XML(1)Cross Entropy(1)비지도 학습(1)anaconda(1)outlier(1)best W(1)cli(1)json(1)lecture3(1)Missing Data(1)digtal image(1)differentiation(1)One-Hot Encoding(1)isna(1)질척질척(1)멀티프로세싱(1)Binning(1)linear classification(1)손실함수(1)이상치(1)데이터베이스(1)image classification(1)tensorflow(1)permission(1)예외 처리를 위한 방법(1)clone(1)미분(1)협업(1)정칙화(1)machine learning(1)머신러닝(1)multiclass logistic regression(1)README.md(1)Unsupervised Learning(1)알고리즘선택(1)Logistic Regression(1)Markdown(1)MapReduce(1)역시 일은(1)respository(1)try except(1)Linear Regression(1)pull(1)익명함수(1)db(1)command line(1)pixel(1)나눠서 해야지(1)JPG(1)Gradient Descent(1)file(1)loading datasets(1)loss function(1)csv(1)bigdata(1)Deep maching learning(1)Z-score(1)흰색은 글씨요(1)duplicated(1)최적화(1)TFMaster(1)정규표현식(1)numpy(1)Neural Network(1)png(1)CIFAR-100(1)vector case(1)Activation Functions(1)sigmoid(1)강화학습(1)
post-thumbnail

강화학습 기초. 1장 MDP와 벨만 방정식

사람들이 어떤 문제를 처음 접했을 때 어떤 문제인지 파악부터하는 습성이 있다. 하지만 강화학습에서의 에이전트는 그렇게 지능적이지 않으므로, 사용자가 문제를 정의해야 한다. 문제를 잘못 정의하면 에이전트가 학습을 못할 수도 있다. MDP 강화학습은 순차적으로 행동을 계

2021년 9월 28일
·
0개의 댓글
post-thumbnail

1. 강화학습 소개

강화학습에서 강화는 동물이 "시행착오(Trial and Error)"를 통해 학습하는 방법 중 하나이다. 이 개념을 처음으로 제시한 것은 스키너(Skinner)라는 행동심리학자이다.스키너는 쥐 실험을 통해 동물이 행동과 그 결과 사이의 관계를 학습하는 것을 관찰했다.굶

2021년 9월 26일
·
0개의 댓글
post-thumbnail

맵리듀스로 그리는 빅데이터 지도

빅'데이터 처리의 기본패턴 제타바이트(Zettabyte, $10^{21}$) 단위까지 증가한 데이터, 즉 빅데이터를 처리하기 위한 방법은 성능이 좋은 컴퓨터를 써야한다. 혹은 컴퓨터를 여러 대를 연결한 뒤 작업을 분할해 사용할 수도 있다. 멀티 코어, 멀티 프로세서 등

2021년 9월 1일
·
0개의 댓글
post-thumbnail

데이터를 관리하는 데이터베이스

공통의 데이터에 대해서만 데이터를 합치는 것전체 데이터에 합치는 연산merge() 대신 join() 메소드를 이용이 가능하다.이어 붙이기join에 대한 내용은 밑에 이미지를 첨부하겠다.행 또는 열(컬럼)을 지정, 데이터를 추출정수 인덱스 를 사용하여 행 또는 열(컬럼)

2021년 8월 23일
·
0개의 댓글
post-thumbnail

super power

빅데이터를 다루기 위해서는 컴퓨팅 자원을 최적화하는 방법인 병렬 컴퓨팅, 분산 컴퓨팅 등 개념을 알아야한다. 컴퓨터 아키텍처를 설계하는 사람들만의 고민들이 아니며, 현실세계에서 새로 라면집을 개업한 김사장님도 비슷한 고민을 한다.주방장 1명이 라면 1개를 끓이는 데 시

2021년 8월 20일
·
0개의 댓글

DeepML. Training Neural Networks

[목차] Activation Functions Data Preprocessing Weight Initialization Batch Normalization Babysitting the Learning Process Hyperparameter Optimization A

2021년 8월 11일
·
0개의 댓글
post-thumbnail

DeepML. Convolutional Neural Networks

Fully Connected Layer Convolutional Layer filter는 가중치 역할을 한다. 아래와 같은 연산을 행

2021년 8월 11일
·
0개의 댓글

Regularization

Regularization & Normalization Regularization는 정칙화라고 불리며, 오버피팅을 해결하기 위한 방법 중의 하나이다. L1, L2 Regularization, Dropout, Batch normalization 등이 있다. 이 방법들은

2021년 8월 11일
·
0개의 댓글
post-thumbnail

8장. 딥러닝

이번 포스팅은 딥러닝에 대해서 이야기해보겠다. 딥러닝은 층을 깊게 한 심층 신경망이며, 지금까지 설명한 신경망을 바탕으로 뒷단에 층을 추가하기만 하면 만들 수 있지만, 문제점들을 몇가지 품고 있다. [손글씨 숫자를 인식하는 심층 CNN] 지금까지 구현한 신경망들보다

2021년 8월 10일
·
0개의 댓글
post-thumbnail

DeepML. Neural Network - 2

위는 벡터인 경우 연산을 대략적으로 그린 그림이다.위와 같은 연산이 있다고 생각해보자.여기서 Jacobian matrix는 $\\partial f \\over \\partial x$이다.이때 Jacobian matrix의 사이즈는 4096x4096 이다. 이때 Jaco

2021년 8월 2일
·
0개의 댓글
post-thumbnail

DeepML. Neural Network - 1

scores function $s = f(x; W) = Wx$ $s$는 score vector(output)이며 $x$는 input이다. SVM loss $Li = \sum{j \ne yi} \text{max}(0, sj - s{yi} + 1)$ data loss

2021년 8월 2일
·
0개의 댓글
post-thumbnail

6장. 학습 관련 기술들 - 2

가중치의 초깃값을 적절히 설정하면 각 층의 활성화값 분포가 적당히 퍼지면서 학습이 원활하게 수행됨을 배웠다. 그렇다면 각 층이 활성화를 적당히 퍼뜨리도록 '강제'할 수도 있을까? 실은 배치 정규화(Batch Normalization)가 그런 아이디어에서 출발한 방법이다

2021년 7월 30일
·
0개의 댓글

6장. 학습 관련 기술들 - 1

오늘은 학습에 관련된 기술들에 대해서 얘기해볼 것이다. 매개변수 갱신 신경망 학습의 목적은 손실 함수의 값을 가능한 한 낮추는 매개변수를 찾는 것이다. 이는 곧 최적값을 찾는 문제이며, 이러한 문제를 푸는 것은 최적화(optimization)이라 한다. 지금까지는

2021년 7월 30일
·
0개의 댓글
post-thumbnail

딥네트워크

이미지넷(ImageNet)은 컴퓨터 비전 분야를 연구하다보면 필연적으로 만나게 되는 이름이다.AlexNet 구조Image Classification with Deep Convolutional Neural Networks 논문VGG는 AlexNet 같이 이미지넷 챌린지에

2021년 7월 30일
·
0개의 댓글

5장. 오차역전파법 backpropagation - 2

구체적인 구현에 들어가기 전에 신경망 학습의 전체 그림을 복습해 보자. 다음은 신경망 학습의 순서이다.전제신경망에는 적응 가능한 가중치와 편향이 있고, 이 가중치와 편향을 훈련 데이터에 적응하도록 조정하는 과정을 '학습'이라 한다. 신경망 학습은 다음과 같이 4단계로

2021년 7월 27일
·
0개의 댓글

5장. 오차역전파법 backpropagation - 1

앞 포스팅에서의 수치미분은 단순하고 구현하기도 쉽지만 시간이 오래 걸린다는 것이 단점이다. 가중치 매개변수의 기울기를 효율적으로 계산하는 오차역전파법(backpropagation)을 이야기해보자. 이해하는 방법은 2가지가 있다. 수식을 통한 것 계산 그래프(compu

2021년 7월 27일
·
0개의 댓글
post-thumbnail

비지도 학습 Unsupervised Learning

그동안 주로 배워온 딥러닝 모델들이 주로 수행하는 작업들은 정답 데이터를 통해 X가 무엇인지 분류하는 방법을 배우게 하는 지도학습(Supervised Learning)이였다. 그러나 명확한 정답 데이터가 라벨(label)로 달려있지 않은 수많은 데이터들을 다룰땐 비지도

2021년 7월 26일
·
0개의 댓글
post-thumbnail

Deep ML. Optimization

이번 포스팅에서는 이전 포스팅의 내용을 이어서 최적의 $W$를 찾는 Optimization에 대해 소개해보겠다. 비유를 통해 설명해보겠다. 아래처럼 산과 계곡을 걸어 내려가본다고 생각해보자.여기서 산과 계곡이 $W$이며, 인간이 있는 높이는 Loss이다. Loss는 $

2021년 7월 23일
·
0개의 댓글
post-thumbnail

Deep ML. Regularization 정규화, softmax Classifier( loss function )

앞선 포스팅에서 Model의 복잡함을 좀 더 단순한 W를 선택하도록 도와주는 역할을 하는 것이 Regularization(정규화)이라고 말했다. 일반적인 Loss Function에서는 2가지 항을 가지게 된다. data loss regularization loss h

2021년 7월 23일
·
0개의 댓글
post-thumbnail

선형 회귀와 로지스틱 회귀

이번 포스팅에서는 선형회귀(Linear Regression)와 로지스틱 회귀(Logistic Regression)에 대해 알아보려 한다. 회귀(Regression) 회귀분석(Regression Analysis) 이란 통계학에서 전통적으로 많이 사용되던 분석 방법이다.

2021년 7월 23일
·
0개의 댓글