# Representation

6개의 포스트
post-thumbnail

[밑바닥부터 시작하는 딥러닝2] 05. Word Embedding

자연어: 우리가 평소에 쓰는 말자연어 처리(NLP; Natural Language Processing): 우리의 말을 컴퓨터에게 이해시키기 위한 분야말은 문자로 구성되고, 문자는 단어로 구성된다.$\\therefore$ NLP에서는 단어의 의미를 이해시키는 것이 중요함

2022년 1월 24일
·
0개의 댓글

[D&A 운영진 딥러닝 스터디] 4주차 1차시

Text 데이터를 분석하고 모델링하는 분야NLU + NLG자연어 이해(NLU; Natural Language Understanding): 자연어를 이해하는 영역자연어 생성(NLG; Natural Language Generation): 자연어를 생성하는 영역NLP 과정T

2022년 1월 22일
·
0개의 댓글
post-thumbnail

[논문 리뷰] Understanding Contrastive Representation Learning through Alignment and Uniformity on the Hypersphere

Representation을 학습하는데 있어 $l2$ norm을 통해 feature의 영역을 unit hypershpere으로 제한하는 것은 학습 안정성을 높이고 클래스를 적절히 분류하여 선형 분리가 가능하도록 만든다. $l2$ norm은 보편적인 방법이지만 encod

2022년 1월 16일
·
0개의 댓글
post-thumbnail

On the Fairness of Disentangled Representation (NIPS 2019) 논문리뷰

original paperSec5. related work는 생략하였습니다.처음 읽어보는 fairness 관련논문! 흥미로웠다!! 레퍼런스에 읽어보고 싶은 논문들이 너무많음.최근 disentangled representation을 학습시키는 것이 주목받고 있음. 이것을

2021년 8월 12일
·
0개의 댓글
post-thumbnail

Disentangling by Factorising (ICML 2018)

original paper 안그래도 어려워보였는데, 정신적으로 많이 힘들 때 읽어서 더 어렵게 느껴졌던 논문..^_^ Abstract 독립적인 변동인자들로부터 생성된 데이터에 대해 disentangled representation을 비지도학습 방식으로 얻어내고자 하는

2021년 8월 11일
·
0개의 댓글
post-thumbnail

논문리뷰 - BERT:pre-training of deep bidirectional transformers for language understanding (2018)

original paper : https://arxiv.org/abs/1810.04805자연어처리 과제가있어 그 유명한 버트를 이제서야 읽게되었다..ㅎ Transformer encoder part를 떼어와서 자연어 토큰들에 대한 representation le

2021년 8월 4일
·
0개의 댓글