profile
숨참고 Deep Dive...
post-thumbnail

[핸즈온머신러닝] 4장 모델 훈련

1장부터 3장까지는 머신러닝 모델과 훈련 알고리즘을 살펴보았습니다. 챕터 4는 모델이 어떻게 구현되고 작동되는지를 살펴보는 단원입니다. 모델이 어떻게 작동하는지를 알면 적절한 모델 선택 올바른 훈련 알고리즘 작업에 맞는 좋은 하이퍼 파라미터

2022년 4월 21일
·
0개의 댓글
·
post-thumbnail

[DL] Weak supervision, Semi-supervised learning

💻 딥러닝의 깊이 있는 이해를 위한 머신러닝 강의 11강📄 Various Types of Supervision in Machine Learning📄 Weak Supervision (Part I)📄 Snorkel — A Weak Supervision SystemW

2022년 3월 12일
·
0개의 댓글
·
post-thumbnail

[DL] Attention - Seq2Seq Models

📄 Attention - Seq2Seq Modelsseq2seq with Attention을 이해하기 위해 포스팅합니다. 위 reference를 바탕으로 내용을 이해하고 정리하였습니다.재생산되는 제 내용 중 오류가 있을 수 있습니다. 그럴 경우 댓글로 알려주시면 감사

2022년 3월 11일
·
0개의 댓글
·
post-thumbnail

[DL] Sequence to Sequence model

📄 A Simple Introduction to Sequence to Sequence ModelsSeq to Seq를 공부하다가 Architecture에 대한 이해가 잘 되지 않아, 해당 포스팅을 찾았고 이를 바탕으로 공부하고 정리합니다.내용에 오류가 있는 경우 댓글

2022년 3월 11일
·
0개의 댓글
·
post-thumbnail

VGG

1 VGG논문 - VERY DEEP CONVOLUTIONALNETWORKS FOR LARGE-SCALE IMAGE RECOGNITION 2 VGG16 – Convolutional Network for Classification and Detection<1><

2022년 3월 10일
·
0개의 댓글
·
post-thumbnail

[ML] Random Forest

💻 딥러닝의 깊이 있는 이해를 위한 머신러닝 강의 4-2🔗 랜덤 포레스트 - 위키백과이번에 정리할 개념 Random Forest는 앞서 포스팅한 Decsion Tree와 흐름이 이어집니다. Decision tree가 뭔지 모른다면 참고하시는 걸 추천드리고, 대충 개

2022년 3월 9일
·
0개의 댓글
·
post-thumbnail

[ML] Decision Tree

💻 딥러닝의 깊이 있는 이해를 위한 머신러닝 강의 2-1🔗 What is a Decision Tree?저는 해당 강의를 듣고 greedy recursive splitting 전략을 사용한다는 부분에서 이해가 명확히 되지 않아,머신러닝 지도학습의 가장 기본적인 알고리

2022년 3월 9일
·
0개의 댓글
·
post-thumbnail

[DL] Parametric vs Non-parametric model

💻 딥러닝의 깊이 있는 이해를 위한 머신러닝 강의 4-1🔗 Parametric model과 Non-parametric model🔗 Parametric vs Nonparametric Models이번 포스팅에서 정리할 개념은 첫 번째 강의의 4-1 part와 아래 세

2022년 3월 9일
·
0개의 댓글
·
post-thumbnail

[DL] Generative vs Discriminate Model

Reference 🔗 Discriminative vs. Generative model 🔗 Generative model과 Discriminate model 차이점과 비교 Pattern Recognition에서 classification에 사용하는 모델은 2가지

2022년 3월 9일
·
0개의 댓글
·
post-thumbnail

[NLP] 임베딩(Imbedding)

해당 포스팅은 이기창님의 📒 '한국어 임베딩' 책을 바탕으로 개념을 정리합니다.따라서 책에서 정의 내리고 쓰는 용어가 기준이므로 기존 용어와 살짝 다른 부분이 있을 수도 있습니다. (없을 것 같긴 하지만요)이기창님의 관련 자료한국어 임베딩 튜토리얼한국어 임베딩 깃헙

2022년 2월 26일
·
0개의 댓글
·
post-thumbnail

[혼공머] 순차 데이터와 순환 신경망

👩‍🔬 이번에는 혼공머 책의 챕터 9-1 파트입니다.📕 혼자공부하는머신러닝+딥러닝, 한빛미디어순차 데이터(sequential data)는 텍스트나 시계열 데이터(time series data)와 같이 순서에 의미가 있는 데이터를 말합니다.'I am a boy''b

2022년 2월 23일
·
0개의 댓글
·
post-thumbnail

[DL] Recurrent Neural Networks and LSTM

이번 포스팅은 RNN과 LSTM에 대해 공부하고 정리하려고 합니다.🚀 이전에 RNN과 LSTM에 대해 따로 정리한 자료가 있습니다. 해당 자료는 일러스트를 이용해서 정리한 자료이니 필요하신 분은 참고하세요. 🔗 [Recurrent Neural Networks

2022년 2월 22일
·
0개의 댓글
·
post-thumbnail

[DL] Long Short-Term Memory(LSTM) and GRU

이번 포스팅은 LSTM의 아주 기초적인 부분에 대해 공부해보려고 합니다.🚀 앞으로 NLP 분야를 공부할 예정이니 기본기를 탄탄하게 쌓는 포스팅이 되면 좋겠군요!해당 포스팅은 Reference에 있는 일러스트로 설명하는 LSTM 포스팅을 바탕으로 번역하여 정리했음을 밝

2022년 2월 20일
·
2개의 댓글
·
post-thumbnail

[DL] Recurrent Neural Networks (순환 신경망)

이번 포스팅은 RNN의 아주 기초적인 부분에 대해 공부해보려고 합니다.🚀 앞으로 NLP 분야를 공부할 예정이니 기본기를 탄탄하게 쌓는 포스팅이 되면 좋겠군요!해당 포스팅은 Reference에 있는 일러스트로 설명하는 RNN 포스팅을 바탕으로 번역하여 정리했음을 밝힙니

2022년 2월 19일
·
0개의 댓글
·
post-thumbnail

[DL] Batch Normalization (배치정규화)

이번엔 Batch Normalization의 개념을 정리하려고 합니다. 제가 참고한 포스팅과 영상 등은 아래 Reference에 모두 남겨놓았으니 참고 부탁드립니다.😊📄 Batch Normalization: Accelerating Deep Network Traini

2022년 2월 19일
·
0개의 댓글
·
post-thumbnail

[DL] 가중치 초기화 (Weight Initialization)

오늘은 '밑바닥부터 시작하는 딥러닝'이란 책과 아래 Reference를 바탕으로 정리를 할 예정입니다.📕 밑바닥부터 시작하는 딥러닝, 한빛미디어🔗 참고 포스팅 1🔗 🔗 이미지 출처1🔗 이미지 출처2🔗 이미지 출처3신경망 학습에서 특히 중요한 것이 가중치의 초

2022년 2월 18일
·
2개의 댓글
·
post-thumbnail

[DL] "Dying ReLU" problem in neural networks

ReLU(Rectified Linear Unit)의 그래프입니다.일부 input에 대한 rectifier의 입력 $x_n$가 있습니다.$$zn = \\sum{i=1}^k w_ia_i^n$$Weight $w_i$을 위해 이전 layer의 특정 입력 입력 $x_n$를 $a

2022년 2월 14일
·
0개의 댓글
·
post-thumbnail

[DL] 데이터 증강(Data augmentation)

저는 참고 자료에 적힌 책을 바탕으로 개념을 정리하고 있습니다. 해당 파트는 5-6에 해당됩니다.📚 딥러닝 교과서, 출판사: 이지스 퍼블리싱모델은 복잡한데 비해 그만큼 충분한 데이터가 제공되지 않으면 모델이 데이터를 암기해 버리는 상황이 발생합니다.이런 경우 과적합이

2022년 2월 5일
·
0개의 댓글
·
post-thumbnail

[DL] 조기 종료(early stopping)

저는 참고 자료에 적힌 책을 바탕으로 개념을 정리하고 있습니다. 해당 파트는 5-5에 해당됩니다.📚 딥러닝 교과서, 출판사: 이지스 퍼블리싱조기 종료(early stopping)는 모델이 과적합되기 전 훈련을 멈추는 정규화 기법입니다.훈련 성능과 테스트/검증 성능을

2022년 2월 5일
·
0개의 댓글
·
post-thumbnail

[DL] 정규화(Regularization)

저는 참고 자료에 적힌 책을 바탕으로 개념을 정리하고 있습니다. 해당 파트는 5-2에 해당도비니다.📚 딥러닝 교과서, 출판사: 이지스 퍼블리싱신경망 학습할 때는 최적화에 좋은 위치에서 출발하도록 추기화를 잘하는 것과 최적해로 가는 길을 잘 찾을 수 있도록 정규화(Re

2022년 2월 5일
·
0개의 댓글
·