# Paper

362개의 포스트
post-thumbnail

[Paper] In defence of metric learning for speaker recognition

https://github.com/clovaai/voxceleb_trainer (Review (그림으로 수식 설명)) [화자인식] Metric Learning in Speaker Recognition Abstract an extensive evaluation

약 10시간 전
·
0개의 댓글
·

[study] GPT2

"Language Models are Unsupervised Multitask Learners" 논문 리뷰입니다.

6일 전
·
0개의 댓글
·
post-thumbnail

Generative Adversarial Nets(GAN)

Ian J.Goodfellow 의 논문 (2014)데이터 분포를 생성하는 generative model G 와 그 데이터 분포를 판별하는 discriminative model D를 통해 두 가지 모델을 동시에 훈련하는 적대적 프로세스를 통해 생성 모델을 추정하기 위한

2023년 12월 2일
·
0개의 댓글
·

Prefix-Tuning: Optimizing Continuous Prompts for Generation Paper review

Paper review (Prefix-Tuning: Optimizing Continuous Prompts for Generation)

2023년 12월 2일
·
0개의 댓글
·

[study] BERT[작성중]

"BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" 논문 리뷰입니다.

2023년 12월 1일
·
0개의 댓글
·
post-thumbnail

[논문리뷰] Heterogeneous Graph Transformer

📌 Heterogeneous Graph Transformer 📖 ABSTRACT 저자는 그래프 신경망이 딥러닝을 기반으로 우수한 성능을 보이는 그래프 표현 기술이지만, heterogeneous graph를 위한 그래프 신경망이 아직 고려되지 않았음을 말한다. 본

2023년 11월 30일
·
0개의 댓글
·
post-thumbnail

TabNet & Tabular data: Deep Learning is not all you need

While working on a project in my lab, I saw that XGBoost and LightGBM outperforms any deep learning implementation. This led to the search of TabNet.

2023년 11월 29일
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] GRAPH ATTENTION NETWORKS

📌 GRAPH ATTENTION NETWORKS 📖 ABSTRACT 본 논문에서 소개하는 Graph Attention Networks (GATs)는 GCN 방법론을 포함한 기존 방법론들의 단점을 극복하기 위해 Masked Self-Attention Layers를 사

2023년 11월 28일
·
0개의 댓글
·

RoFormer: Enhanced Transformer with Rotary Position Embedding Paper review

Paper review (RoFormer: Enhanced Transformer with Rotary Position Embedding)

2023년 11월 28일
·
0개의 댓글
·

참고할 것

읽었으면 체크하기https://u-b-h.tistory.com/4

2023년 11월 25일
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] Graph Convolutional Neural Networks for Web-Scale Recommender Systems

📌 Graph Convolutional Neural Networks for Web-Scale Recommender Systems 📖 ABSTRACT PinSage의 저자는 GraphSAGE 저자와 같으며, 해당 모델은 GraphSAGE를 개선한다. 본 논문은 Pi

2023년 11월 22일
·
0개의 댓글
·

LLaMA: Open and Efficient Foundation Language Models Paper review

Paper Review (LLaMA: Open and Efficient Foundation Language Models)

2023년 11월 22일
·
0개의 댓글
·

[study] GPT1

"Improving Language Understanding by Generative Pre-Training" 논문 리뷰입니다.

2023년 11월 19일
·
0개의 댓글
·

REPLUG: Retrieval-Augmented Black-Box Language Models Paper review

Paper review (REPLUG: Retrieval-Augmented Black-Box Language Models)

2023년 11월 19일
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation

📌 LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation 📖 ABSTRACT Graph Convolution Network(GCN)은 협업 필터링에서 새로운 sota 기술이 되

2023년 11월 19일
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] Inductive Representation Learning on Large Graphs

📌 Inductive Representation Learning on Large Graphs 📖 Abstract 기존 그래프의 노드에 대한 저차원 임베딩 방법은 대부분 임베딩 훈련 중 그래프의 모든 노드가 존재해야 한다는 조건이 있으며, 본질적으로 transduct

2023년 11월 17일
·
0개의 댓글
·
post-thumbnail

Visualizing and Understanding Convolutional Networks: ZFNet(2013)

Convolution network가 ImageNet 분류문제에서 좋은 성능을 보이는데 왜 CNN이 좋은 성능을 보이는지는 알 수 없었다본 논문에서는 CNN이 분류를 할 때 중간 계층에 무슨 일이 일어나는지 참신한 시각화를 통해 알 수 있게함시각화를 통해 성능이 뛰어난

2023년 11월 17일
·
0개의 댓글
·
post-thumbnail

그래도 대학생이니까, Research

대학생이니까 졸업 전에 논문 정도는 읽어봐야 하지 않을까?

2023년 11월 16일
·
1개의 댓글
·

[study] Transformer

Attention is all you need 논문 리뷰

2023년 11월 16일
·
0개의 댓글
·

Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting Paper review

Paper Review ( Informer: Beyond Efficient Transformer for Long Sequence Time-Series Forecasting ) -> AAAI's best paper in 2021

2023년 11월 16일
·
0개의 댓글
·