profile
안녕하세요 ㅎㅎ
post-thumbnail

pytorch #1

데이터를 표현하는 단위.텐서끼리의 사칙연산 모두 가능하며 이를 하기 위해 내장 모듈이 존재한다.여기서 텐서는 2차ㅣ원 이상의 배열이라고 표현할 수 있다.출처 : https://towardsdatascience.com/linear-algebra-for-deep-

약 13시간 전
·
0개의 댓글
post-thumbnail

pytorch를 위한 준비(CUDA, CuDNN, pytorch)

장치관리자 -> 디스플레이 어댑터 -> 내 GPU 확인https://en.wikipedia.org/wiki/CUDA위 페이지의 표를 참고하여 내 GPU를 찾고 코어수를 확인한다.내 컴퓨터에서 GPU는 RTX 1050이므로 코어수는 6.1개이다.https&#x

2020년 12월 16일
·
0개의 댓글

[WIL]을 가장한 자연어 처리 프로젝트

이번주는 배운 내용은 별로 없으니 진행한 프로젝트에 대한 리뷰를 진행하도록 한다!우리가 선택한 주제는 네이버 영화를 크롤링하여 영화 추천 프로그램을 만드는 것이었다.하지만!!!사용자의 정보를 얻을 방법을 찾지 못해 영화제목, 장르 정보를 크롤링하여 영화 제목을 입력하면

2020년 8월 28일
·
0개의 댓글

[TIL] 20.08.26

데이터에 대한 답이 주어지지 않을 상태에서 컴퓨터를 학습시키는 방법데이터를 비슷한 특성끼리 묶는 군집과 차원축소로 나눠진다.데이터 과학자들이 데이터를 더 잘 이해하고 싶을 때 탐색적 분석 단계에서 많이 사용한다.데이터를 새롭게 표현하여 원래 데이터보다 쉽게 해석할 수

2020년 8월 26일
·
0개의 댓글

[TIL] 20.08.25

생성기와 판별기가 경쟁적으로 학습시켜 성능을 향상시키는 방법.생성기에서는 판별기가 원본데이터로 착각할만한 위조데이터를 만들어내는 역할을 하고, 판별기는 원본 데이터와 생성기의 데이터를 분간하는 역할을 한다.생성기는 판별기를 속이는 것에 성공했는지에 대한 여부인 이진판단

2020년 8월 25일
·
0개의 댓글

[TIL] 20.08.24

범주형 데이터를 코드형 숫자값으로 변환해주는 것이다.카테고리 특성을 코드형 숫자 값으로 변환하는 것이다.인코딩 반환값 : 0 1 4 5 3 2인코딩 클래스 : 'TV' '냉장고' '믹서' '선풍기' '전자렌지' '컴퓨터'인코딩을 진행할 결과과 다음과 같이 출력된다.

2020년 8월 24일
·
0개의 댓글
post-thumbnail

[WIL] 20.08 3rd week

자기자신을 재생성하는 신경망으로 출력값을 입력값의 근사로 하는 함수를 학습하는 비지도 학습이다.다른 신경망과 달리 이 신경망은 입력과 출력이 동일하다.인코더를 진행한 후 중간에 잠재변수가 있어서 출력값을 일차원 벡터로 만들어 준다.이 일차원 벡터를 디코더에 전달하여 원

2020년 8월 21일
·
0개의 댓글
post-thumbnail

GPT-3, 고놈참 신기하네~!

인터넷의 모든글을 통해 학습을 시킨 모델이며, transformer의 decoder부분을 사용했다.pretrained language model인데 이는 레이블이 없는 많은 데이터를 비지도 학습 방법으로 학습해서 모델이 언어를 이해할 수 있도록 한 후 특정 task에

2020년 8월 20일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.20

사용자 기반, 아이템 기반 협업 필터링으로 나뉘며 유사도가 높은 것을 추천해준다.출처 : https://brunch.co.kr/@biginsight/15사용자 기반의 경우 사용자와 활동내역이 비슷한 사용자를 찾아 그 사람의 내용을 추천해준다.출처 : https

2020년 8월 20일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.19

콘텐츠 기반 필터링 : 단어의 유사도를 측정하여 유사한것을 찾아서 추천가장 기본적으로 코사인 유사도를 사용한다.두 벡터의 내적을 이용하여 코사인 값을 계산하여 -1~1사이의 값으로 유사도를 추출한다.tfdif를 이용하여 단어들을 벡터화해준다. 벡터화가 된 단어들의 유사

2020년 8월 19일
·
0개의 댓글

[WIL] 20.08.2nd Week

텐서플로우 허브에서 좋은 데이터로 훈련되어 있는 모델을 가져와서 사용한다.(= 전이학습)네트워크 구조를 경량화 하고 성능을 향상시킨 모델으로 모바일 환경에서도 사용가능하게 하였다.전이학습 : 미리 훈련된 좋은 성능을 보이는 모델을 가져와서 일부분 혹은 전부를 사용하여

2020년 8월 14일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.13

두 이미지의 스타일과 내용이 합성된 제 3의 이미지를 만들기VGG-19모델에서 마지막 레이어를 제거하고 이용하였다.원본 사진, 타깃 사진의 각 레이어에서 gram matrix를 추출한다. 각각에서 구한 2개의 gram matrix의 MSE를 구하여 MSE가 작아지도록

2020년 8월 13일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.12

훈련때와 다르게 decoder_input이 없다.그래서 decoder를 문장 대신 단어 하나로 생각하도록한다.즉, encoder의 마지막 은닉/쉘 상태 값과 <'start'>를 입력값으로 LSTM을 하나만 실행한다.이때 나온 단어들의 확률값과 은닉/쉘 상태값을 다

2020년 8월 12일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.11

좋은 데이터로 훈련된 모델을 재사용하여 학습하는 기법모델 중 일부분을 가져와서 출력층의 레이어를 내가 풀고자하는 문제에 맞게 재구축하여 사용한다.이때 가져온 모델 중 사용하지 않는 레이어를 'freeze'한다고 한다.어떤 필터의 크기든 3x3필터를 여러번 사용하면 같아

2020년 8월 11일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.10

신경망을 모바일에서도 작동 가능하도록 네트워크 구조를 경량화한 신경망tensorflow_hub를 통해 불러와서 사용가능하다.한 도메인(예: 한글 문장)에서 다른 도메인(예: 영어로 된 문장)으로 시퀀스(sequence)를 변환하는 모델 학습즉, 문장을 입력받아 문장을

2020년 8월 10일
·
0개의 댓글

[Mote] Tokenizer 기법

문장에서 단어, 어절 등으로 나누는 것을 토큰화라고 한다. 이러한 과정을 하는 여러 방법이 있다.<split 방법><WordPunctTokenizer 방법><TreebankWordTokenizer 방법><RegexpTokenizer 방법>

2020년 8월 7일
·
0개의 댓글
post-thumbnail

[WIL] 20.08. 1stWeek

입력값이 많은 이미지에 대해 파라미터 수를 줄이고, 좀 더 빠르고 정확한 방법으로 학습할 수 있도록 만들어진 신경망.중간층인 은닉층에 convolution, pooling계층이 번갈이 존재한다. 이를 통해 이미지의 픽셀. 즉 입력값이 줄어들기도 한다.convolutio

2020년 8월 7일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.06

완전 연결 계층만 사용.높은 손실값과 낮은 정확도를 보임.convolution계층만 사용파라미터수가 매우 증가하며 시간이 증가한다. 약간 향상되었지만, 여전치 높은 손실값과 낮은 정확도를 보인다. 과적합 발생convolution, pooling, dropout계층 사용

2020년 8월 7일
·
0개의 댓글
post-thumbnail

ValueError: Unknown label type: 'continuous'

결정트리를 만들기 위해 타이타닉 데이터를 이용하여 모델을 학습시키는데위의 사진과 같은 에러가 발생했다. 검색결과 타입의 문제라는 결론이 생겼다.현재 사진과 같이 y 데이터의 타입은 float로 되어있는데, 이진분류를 위한 0과 1의 값은 int형이어야한다는 것이다...

2020년 8월 5일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.05

뉴런의 연결을 임의로 삭제하여 일부의 퍼셉트론을 학습과정에서 계산하지 않는 방법과적합 방지를 위한 방법이며, 하나의 신경망을 여러개의 작은 신경망으로 나눠서 계산하다보니 계산량을 오히려 늘어난다.학습시점에서만 사용하며 테스트 과정에서는 모든 퍼셉트론을 계산한다. 이 방

2020년 8월 5일
·
0개의 댓글