벡터화 단어를 벡터화하는 방법 중 하나인 워드 임베딩 벡터화를 하는 이유 : 컴퓨터는 텍스트보다 숫자를 잘 처리하기 때문에 Bag of words / DTM(Document-Term Matrix) BoW는 전에 배웠듯이 단어의 순서는 신경쓰지 않고 빈도수만 체크한다.
내가 실패한 이 지점에서 내가 어떤 사람이기를 바라는지 거리를 두고 생각할 시간을 가졌으면 좋겠습니다. 실패는 앞으로도 계속될 것입니다. 그러나
Category: what type of paper is this?Introduction of DenseNet architecture and advantage compared with other CNNs Context: What other papers are rela
텍스트를 숫자로 변환하는 벡터화, 그래야 컴퓨터가 알아들을 수 있으니까벡터화 방법으로는(1) 통계와 머신 러닝을 활용한 방법(2) 인공 신경망을 활용하는 방법이번에는 (1)번만 배울 예정이다.단어들의 분포로 문서를 특성을 파악하는 기법이 가방은 중복을 제거하지않고 단어
구문 분석(parsing) => 검퓨터 과학에서 parsing은 일련의 문자열을 의미있는 token(어휘 분석의 단위)으로 분해하고 그것들로 이루어진 parse tree를 만드는 과정 Parser=> parsing을 수행하는 프로그램. 즉 parser가 parsing을
이번 데이콘은 아이펠에서 비슷한 관심사로 모인 사람들끼리 도전하였다. 팀원과 팀명 강민정 + 김이삭 + 김인유 + 문성은 = ModuWay 일정 대회 시작은 3월 8일 부터였지만 팀 모이는데 시간이 걸려서, 우리팀은 3월 13일에 온라인으로 첫만남을 가졌다. 대회
1. Introduction 왜 deeper layer가 성능이 shallow layer 보다 좋지 않았다. overfitting 때문일까? -> 그것도 아니더라. 3.1 Residual Learning H(x)가 x가 되는 것 보다 f(x)가 0이 되는게 더 쉽다
기록을 해야 하는 것을 알기 때문에 이렇게 또 적어봅니다. Optimization이란 Loss를 최소화하는 W를 찾아가는 과정입니다. 여기서 방법과 목적을 잊지말아야합니다. loss 최소화를 위해 그에 맞는 W를 어떻게 찾을 건지에 대한 공부입니다. Random S
맞은데 바로 맞으면 별로 안 아프거든요?(경험담) 약간 그런 느낌으로 오히려 Lec2보다 숨이 쉬어졌습니다.지난 시간 linear classification에서 파라미터 w를 배웠습니다.이번 시간에는 이 w를 정량화해서 평가할 수 있게 하려고 합니다. 즉 어떤 w가 좋
수린아 이걸 읽으면 넌 행복해지고 넌 건강해지고 너 게임해 본적 있지. 3단계까지 clear 했을 때, 껐다가 다시 켜도 1단계로 돌아가는게 아니고 4단계로 바로 시작할 수 있잖아. 그게 바로 버전 관리 때문이야. 또 되돌아 가는 기능까지 있다면 1,2 단계도 다시
참고 블로그 >https://leechamin.tistory.com/64 https://namrmino.tistory.com/entry/CS231n-Lecture-2-Image-Classification?category=919351 https://gjghks.tis
고대하던 AIFFEL 붙었다. 어이 거기 소나타!! 인유가 아이펠에 붙었다구!!부랴부랴 대전에 올라가서 집을 구했다. 다행히 6개월 계약이 가능한 곳을 찾았다. 위치며 인프라며 모두 마음에 들었다. 낯선 곳에서의 시작은 설렌다.대전하면 뭐? 성심당건물이 생각보다 엄청