profile
데이터사이언스를 공부하는 권유진입니다.

[D&A 운영진 딥러닝 스터디] 5주차 2차시

Generator와 Discriminator가 서로 대립적(Adversarial)으로 학습해가며 점차 성능 개선Generator는 데이터 생성Discriminator을 최대한 속이려고 노력Discriminator는 만들어진 데이터 평가진짜와 가짜 데이터를 구분하려고 노

2022년 2월 10일
·
0개의 댓글
post-thumbnail

[D&A 운영진 딥러닝 스터디] 5주차 1차시

NLP 연구 분야의 큰 흐름 중 하나는 Attention Mechanism의 활용Encoder-Decoder 형식 보유Encoder가 특정 벡터로 정보를 저장하면 Decoder는 해당 정보를 이용해 Output 생성RNN 계열 모듈을 사용하지 않고 여러 개의 Atten

2022년 2월 8일
·
0개의 댓글
post-thumbnail

[D&A 운영진 딥러닝 스터디] 4주차 2차시

연속된 데이터의 정보 처리단어가 나올 확률은 이전 단어나 주변 단어에 따라 결정(연속적 관계)언어적 약속 ex) 먹고 싶습니다 요소 앞에는 먹을 것이 오며 단어에 받침이 있을 경우에는 이가 조사로 붙어야 함.Probability Language Model: 문장이 나타

2022년 1월 27일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 07. Seq2Seq

주어진 단어들에서 다음에 출현하는 단어의 확률분포 출력확률이 가장 높은 단어 선택'결정적 방법' (결과 일정)'확률적'으로 선택(sampling)결과가 매번 다를 수 있음해당 작업을 <eos>(종결기호)가 나올 때 까지 반복시계열 데이터를 또 다른 시계열 데이터로

2022년 1월 26일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 06. 언어 모델

피드포워드 신경망(FeedForward Network) 흐름이 단방향인 신경망 시계열 데이터를 다루지 못함 순환신경망(RNN; Recurrent Neural Network) 등장 W2V: $w{t-1}$, $w{t+1}$로 $w{t}$ 예측 $\rarr L=

2022년 1월 26일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 05. Word Embedding

자연어: 우리가 평소에 쓰는 말자연어 처리(NLP; Natural Language Processing): 우리의 말을 컴퓨터에게 이해시키기 위한 분야말은 문자로 구성되고, 문자는 단어로 구성된다.$\\therefore$ NLP에서는 단어의 의미를 이해시키는 것이 중요함

2022년 1월 24일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 4주차 1차시

Text 데이터를 분석하고 모델링하는 분야NLU + NLG자연어 이해(NLU; Natural Language Understanding): 자연어를 이해하는 영역자연어 생성(NLG; Natural Language Generation): 자연어를 생성하는 영역NLP 과정T

2022년 1월 22일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 3주차 2차시

이미지 분류 모델을 측정하기 위한 데이터로 가장 많이 사용하는 데이터셋2만 개 이상의 클래스와 약 1400만장의 이미지로 구성ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회에서 사용Yann LeCun 교수가

2022년 1월 18일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 3주차 1차시

컴퓨터 비전 문제는 이미지를 구성하는 픽셀 값을 input으로 사용일반적으로 input의 변수가 독립적이지만 이미지의 픽셀 값은 서로 독립이 아니다.MLP의 경우 이미지의 2차원 픽셀 값을 vector로 flatten하여 input으로 사용flatten 시, 가까운 위

2022년 1월 17일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 2주차 2차시

출처: https://www.cs.cmu.edu/~bapoczos/Classes/ML10715_2015Fall/slides/ManifoldLearning.pdf고차원 데이터를 저차원 데이터로 차원을 축소하여 표현하는 것sample을 모두 error없이 가져가는

2022년 1월 12일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 2주차 1차시

올바른 순서대로 학습을 진행최초 입력값으로부터 각 층마다 존재하는 가중치와 연산하고 활성화 함수를 통과하는 과정을 순서대로 이어나가 최종 layer까지 계산한 후 실제 label과 오차를 계산하는 것반대 방향으로 학습을 진행순전파에서 계산한 오차를 기반으로 기울기를 사

2022년 1월 11일
·
0개의 댓글
post-thumbnail

[D&A 운영진 딥러닝 스터디] 1주차 2차시

다수의 신호를 입력 받아 하나의 신호를 출력하는 것신호가 흐른다/안 흐른다(1/0)으로 나뉜다.인간의 뇌에 있는 뉴런(neuron)을 본떠 만듦(신호 전달)linear classifier 수행$$y = \\left{ \\begin{matrix} 0& w_1x_1+w_2

2022년 1월 6일
·
0개의 댓글
post-thumbnail

[D&A 운영진 딥러닝 스터디] 1주차 1차시

파이썬이 이용할 수 있는 모듈의 버전은 1개뿐이다.하지만, 여러 버전을 이용해야 할 필요성이 존재한다.이러한 경우에는 가상환경을 활용하면 된다.독립된 작업 공간으로, 각 공간 별로 모듈의 버전 다르게 설치 가능하다.가상 환경 실습(파이썬) - 윈도우사칙연산 수행 가능s

2022년 1월 2일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝1] 04. 합성곱 신경망(CNN)

합성곱 신경망(CNN; Convolutional Neural Network) 이미지 인식, 음성 인식에서 자주 사용 합성곱 계층(Convolution Layer), 풀링 계층(Pooling Layer) 존재 풀링 계층은 생략 가능 완전 연결 계층(Fully-

2022년 1월 2일
·
0개의 댓글

[밑바닥부터 시작하는 딥러닝1] 03. 신경망 학습 관련 기술

매개변수의 최적값 찾는 문제확률적 경사하강법(Stochastic Gradient Descending)$$W \\larr W - \\eta \\cfrac{\\partial L}{\\partial W}$$기울어진 방향으로 일정 거리만 이동단순하지만 비효율적(특히 비등방성

2022년 1월 1일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝1] 02. 순전파 및 역전파

훈련데이터로부터 매개변수의 최적값을 자동으로 획득$\\;\\;\\; \\rarr$ 자동으로 학습할 때 손실함수(Loss)를 지표로 사용!$\\;\\;\\;\\;\\;\\; \\rarr$ 손실함수를 최소화하는 매개변수를 찾는다.$\\;\\;\\;\\;\\;\\;\\;\\

2022년 1월 1일
·
0개의 댓글
post-thumbnail

[밑바닥부터 시작하는 딥러닝1] 01. 퍼셉트론과 신경망, 활성화 함수

퍼셉트론(Perceptron) 다수의 신호를 입력받아 하나의 신호를 출력 신경망(딥러닝)의 기원 > $$y = \left\{ \begin{matrix} 0& w1x1+w2x2 \le \theta\\ 1& w1x1+w2x2 > \theta \end{matrix}\rig

2022년 1월 1일
·
0개의 댓글