profile
안녕하세요 ㅎㅎ

[TIL] 20.08.26

데이터에 대한 답이 주어지지 않을 상태에서 컴퓨터를 학습시키는 방법데이터를 비슷한 특성끼리 묶는 군집과 차원축소로 나눠진다.데이터 과학자들이 데이터를 더 잘 이해하고 싶을 때 탐색적 분석 단계에서 많이 사용한다.데이터를 새롭게 표현하여 원래 데이터보다 쉽게 해석할 수

2020년 8월 26일
·
0개의 댓글

[TIL] 20.08.25

생성기와 판별기가 경쟁적으로 학습시켜 성능을 향상시키는 방법.생성기에서는 판별기가 원본데이터로 착각할만한 위조데이터를 만들어내는 역할을 하고, 판별기는 원본 데이터와 생성기의 데이터를 분간하는 역할을 한다.생성기는 판별기를 속이는 것에 성공했는지에 대한 여부인 이진판단

2020년 8월 25일
·
0개의 댓글

[TIL] 20.08.24

범주형 데이터를 코드형 숫자값으로 변환해주는 것이다.카테고리 특성을 코드형 숫자 값으로 변환하는 것이다.인코딩 반환값 : 0 1 4 5 3 2인코딩 클래스 : 'TV' '냉장고' '믹서' '선풍기' '전자렌지' '컴퓨터'인코딩을 진행할 결과과 다음과 같이 출력된다.

2020년 8월 24일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.20

사용자 기반, 아이템 기반 협업 필터링으로 나뉘며 유사도가 높은 것을 추천해준다.출처 : https://brunch.co.kr/@biginsight/15사용자 기반의 경우 사용자와 활동내역이 비슷한 사용자를 찾아 그 사람의 내용을 추천해준다.출처 : https

2020년 8월 20일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.19

콘텐츠 기반 필터링 : 단어의 유사도를 측정하여 유사한것을 찾아서 추천가장 기본적으로 코사인 유사도를 사용한다.두 벡터의 내적을 이용하여 코사인 값을 계산하여 -1~1사이의 값으로 유사도를 추출한다.tfdif를 이용하여 단어들을 벡터화해준다. 벡터화가 된 단어들의 유사

2020년 8월 19일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.13

두 이미지의 스타일과 내용이 합성된 제 3의 이미지를 만들기VGG-19모델에서 마지막 레이어를 제거하고 이용하였다.원본 사진, 타깃 사진의 각 레이어에서 gram matrix를 추출한다. 각각에서 구한 2개의 gram matrix의 MSE를 구하여 MSE가 작아지도록

2020년 8월 13일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.12

훈련때와 다르게 decoder_input이 없다.그래서 decoder를 문장 대신 단어 하나로 생각하도록한다.즉, encoder의 마지막 은닉/쉘 상태 값과 <'start'>를 입력값으로 LSTM을 하나만 실행한다.이때 나온 단어들의 확률값과 은닉/쉘 상태값을 다

2020년 8월 12일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.11

좋은 데이터로 훈련된 모델을 재사용하여 학습하는 기법모델 중 일부분을 가져와서 출력층의 레이어를 내가 풀고자하는 문제에 맞게 재구축하여 사용한다.이때 가져온 모델 중 사용하지 않는 레이어를 'freeze'한다고 한다.어떤 필터의 크기든 3x3필터를 여러번 사용하면 같아

2020년 8월 11일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.10

신경망을 모바일에서도 작동 가능하도록 네트워크 구조를 경량화한 신경망tensorflow_hub를 통해 불러와서 사용가능하다.한 도메인(예: 한글 문장)에서 다른 도메인(예: 영어로 된 문장)으로 시퀀스(sequence)를 변환하는 모델 학습즉, 문장을 입력받아 문장을

2020년 8월 10일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.06

완전 연결 계층만 사용.높은 손실값과 낮은 정확도를 보임.convolution계층만 사용파라미터수가 매우 증가하며 시간이 증가한다. 약간 향상되었지만, 여전치 높은 손실값과 낮은 정확도를 보인다. 과적합 발생convolution, pooling, dropout계층 사용

2020년 8월 7일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.05

뉴런의 연결을 임의로 삭제하여 일부의 퍼셉트론을 학습과정에서 계산하지 않는 방법과적합 방지를 위한 방법이며, 하나의 신경망을 여러개의 작은 신경망으로 나눠서 계산하다보니 계산량을 오히려 늘어난다.학습시점에서만 사용하며 테스트 과정에서는 모든 퍼셉트론을 계산한다. 이 방

2020년 8월 5일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.04

학습률을 개별 파라미터 별로 동적으로 조절해 경사하강법의 동작을 보완하고 학습 품질을 높여주는 방법.모멘텀, 2차 모멘텀과 학습률을 활용한다.파라미터 하나마다 모멘텀 정보와 2차 모멘텀 정보가 따라붙게 되어 파라미터 관리에 필요한 메모리 소비량이 매우 증가한다.또한 학

2020년 8월 4일
·
0개의 댓글
post-thumbnail

[TIL] 20.08.03

이미지 처리에 알맞게 은닉층을 배치한 신경망은닉층에 파라미터 수가 적어진 합성곱계층과 파라미터가 없는 풀링계층이 존재한다.출처:http://ww1.machinelearninguru.com/?subid1=2c57a700-d57c-11ea-8716-3d334e21

2020년 8월 3일
·
0개의 댓글
post-thumbnail

[TIL] 20.07.30

누적확률함수(CDF) : 연속균등분포의 함수에서 지점까지의 면적과 같다.스튜던트 t분포 : 정규분포의 평균을 측정할 때 사용하는 분포. 자유도가 커질수록 표준정규분포에 가까워짐.카이제곱분포 : 자유도 k개의 표준정규 변수를 각각 제곱한 다음 합해서 얻어지는 분포. 신뢰

2020년 7월 30일
·
0개의 댓글

[TIL] 20.07.29

다층 퍼셉트론 다수의 퍼셉트론 계층들을 순서에 따라 배치하여 중간단계의 은닉층부터 출력층을 거쳐 출력벡터를 산출한다. >은닉계층 : 직접 드러나지 않는 계층이며 이를 통한 출력물을 '은닉벡터'라고 한다. 한계층의 파라미터 수 = (입력수) * 퍼셉트론의 수 + 편향

2020년 7월 29일
·
0개의 댓글

[TIL] 20.07.23

정처기 수제비 모의고사 풀어보기오늘 배운 내용 정리해서 velog나이브베이즈 실행 성공시키기sort 알고리즘 작성어제 짠 코드를 활용하여 한국어 단어 분류기를 만들었다.여기에서 ratings_test.txt파일을 이용하여 학습을 진행했다. 같은 방법으로 진행하나 이 파

2020년 7월 23일
·
0개의 댓글

[TIL] 20.07.22

정처기 3권 풀고 모의고사 5개정렬 알고리즘 작성velog작성엔트로피는 불확실한 정보를 숫자로 정량화하려는 노력이다. 정보량을 나타낸다.이는 어떠한 사건이 일어날 확률의 역수에 로그를 취한 값이다.엔트로피는 불확실한 정보를 수치화하는 것이므로 높은 엔트로피는 높은 불확

2020년 7월 22일
·
0개의 댓글

[TIL] 20.07.21

정치기 2권 풀기velog작성딥러닝 2번째 코드 실행신경망은 값이 일정하지 않은 값으로 나오지 1과 0으로 나오게 할 수는 없다.따라서 신경망의 결과를 시그모이드 함수와 같은 비선형 함수를 이용하여 0과 1의 사이의 값으로 출력하게 한다.신경망으로 출력된 임의의 실수값

2020년 7월 21일
·
0개의 댓글

[TIL] 20.07.20

정처기 1권 정리본 읽고, 1권 문제 풀기stack클래스 구현 with pythontil작성행렬곱인 matmul과 전치 행렬을 사용했다.konlpy를 사용하기 위해서는 jdk, JPype가 필요하다.jdk는 환경변수 설정을 한 후, JPype를 다운받아 pip를 이용하

2020년 7월 20일
·
0개의 댓글

[TIL] 20.07.16

계획한 일 velog작성 tokenize 공부 정처기 3권 풀기 공부한 것 >tokenize 사용 word_tokenize를 사용하여 단어별로 문장을 잘라준다. 잘라진 단어중 의미에 상관없는 불필요한 단어들을 제거해준다. 각 단어의 개수를 세어 내림차순으로 정렬한

2020년 7월 17일
·
0개의 댓글