profile
망고농장주인

NLP_L3_Word_Embedding_KIY

벡터화 단어를 벡터화하는 방법 중 하나인 워드 임베딩 벡터화를 하는 이유 : 컴퓨터는 텍스트보다 숫자를 잘 처리하기 때문에 Bag of words / DTM(Document-Term Matrix) BoW는 전에 배웠듯이 단어의 순서는 신경쓰지 않고 빈도수만 체크한다.

2021년 4월 15일
·
0개의 댓글

[필사]실패에 우아할 것

내가 실패한 이 지점에서 내가 어떤 사람이기를 바라는지 거리를 두고 생각할 시간을 가졌으면 좋겠습니다. 실패는 앞으로도 계속될 것입니다. 그러나

2021년 4월 14일
·
0개의 댓글

Densely Connection Convolutional Networks - 1st pass

Category: what type of paper is this?Introduction of DenseNet architecture and advantage compared with other CNNs Context: What other papers are rela

2021년 4월 12일
·
0개의 댓글

NLP_L2_Vectorization_KIY

텍스트를 숫자로 변환하는 벡터화, 그래야 컴퓨터가 알아들을 수 있으니까벡터화 방법으로는(1) 통계와 머신 러닝을 활용한 방법(2) 인공 신경망을 활용하는 방법이번에는 (1)번만 배울 예정이다.단어들의 분포로 문서를 특성을 파악하는 기법이 가방은 중복을 제거하지않고 단어

2021년 4월 10일
·
0개의 댓글

NLP_L1_Handling_Text_Data_KIY

구문 분석(parsing) => 검퓨터 과학에서 parsing은 일련의 문자열을 의미있는 token(어휘 분석의 단위)으로 분해하고 그것들로 이루어진 parse tree를 만드는 과정 Parser=> parsing을 수행하는 프로그램. 즉 parser가 parsing을

2021년 4월 8일
·
0개의 댓글
post-thumbnail

My first Dacon

이번 데이콘은 아이펠에서 비슷한 관심사로 모인 사람들끼리 도전하였다. 팀원과 팀명 강민정 + 김이삭 + 김인유 + 문성은 = ModuWay 일정 대회 시작은 3월 8일 부터였지만 팀 모이는데 시간이 걸려서, 우리팀은 3월 13일에 온라인으로 첫만남을 가졌다. 대회

2021년 4월 7일
·
6개의 댓글
post-thumbnail

Deep Residual Learning for Image Recognition

1. Introduction 왜 deeper layer가 성능이 shallow layer 보다 좋지 않았다. overfitting 때문일까? -> 그것도 아니더라. 3.1 Residual Learning H(x)가 x가 되는 것 보다 f(x)가 0이 되는게 더 쉽다

2021년 4월 5일
·
3개의 댓글

CS231n Lec3(2) Optimization & Image Features🙋

기록을 해야 하는 것을 알기 때문에 이렇게 또 적어봅니다. Optimization이란 Loss를 최소화하는 W를 찾아가는 과정입니다. 여기서 방법과 목적을 잊지말아야합니다. loss 최소화를 위해 그에 맞는 W를 어떻게 찾을 건지에 대한 공부입니다. Random S

2021년 1월 15일
·
0개의 댓글

CS231n Lec3(1) Loss function

맞은데 바로 맞으면 별로 안 아프거든요?(경험담) 약간 그런 느낌으로 오히려 Lec2보다 숨이 쉬어졌습니다.지난 시간 linear classification에서 파라미터 w를 배웠습니다.이번 시간에는 이 w를 정량화해서 평가할 수 있게 하려고 합니다. 즉 어떤 w가 좋

2021년 1월 4일
·
3개의 댓글

F2)그니까 git이 뭐냐면

수린아 이걸 읽으면 넌 행복해지고 넌 건강해지고 너 게임해 본적 있지. 3단계까지 clear 했을 때, 껐다가 다시 켜도 1단계로 돌아가는게 아니고 4단계로 바로 시작할 수 있잖아. 그게 바로 버전 관리 때문이야. 또 되돌아 가는 기능까지 있다면 1,2 단계도 다시

2021년 1월 1일
·
1개의 댓글
post-thumbnail

CS231n Lec2 Image classification pipeline

참고 블로그 >https://leechamin.tistory.com/64 https://namrmino.tistory.com/entry/CS231n-Lecture-2-Image-Classification?category=919351 https://gjghks.tis

2020년 12월 31일
·
4개의 댓글
post-thumbnail

자 이제 시작이야

고대하던 AIFFEL 붙었다. 어이 거기 소나타!! 인유가 아이펠에 붙었다구!!부랴부랴 대전에 올라가서 집을 구했다. 다행히 6개월 계약이 가능한 곳을 찾았다. 위치며 인프라며 모두 마음에 들었다. 낯선 곳에서의 시작은 설렌다.대전하면 뭐? 성심당건물이 생각보다 엄청

2020년 12월 31일
·
1개의 댓글