# encoder
머신러닝 3일차 chapter3 (~15)
Encoder and Scaler label encoder 대상이 되는 문자로 된 데이터를 숫자-카테고리컬한 데이터로 변경 A컬럼이 알파벳에서 숫자로 바뀐것 확인 가능 fit과 transform 한번에 하는 것도 가능 역으로 다시 알파벳으로 바꾸는 invers
5. JSP 활용 - Cookie(쿠키) 주요 메서드
1. setMaxAge setMaxAge(시간(초))는 Cookie 생성 시 해당 쿠키 객체의 유지 기간을 정해주는 메서드 입니다. 소괄호 안에는 초단위의 시간이 들어가기 때문에 다음과 같이 시간을 정해 줄 수 있습니다. 2. URLEncoder, encode Cookie에는 아스키 문자가 사용 가능합니다. 이 때 사용불가능 문자...

[논문리뷰] Attention is all you need
The dominant sequence transduction models are based on complex recurrent orconvolutional neural networks that include an encoder and a decoder. The be

Transformer
boost course 자연어 처리의 모든 것 강의를 보고 복습차원에서 정리해 보았습니다. 앞의 chapter에서 설명드린 RNN의 구조에 대해서 간단하게 살펴보고 가겠습니다. RNN은 현 시점의 input과 이전 시점의 hidden state를 입력으로 받는다고 하

Sequence-to-sequence with attention
boost course의 자연어 처리의 모든 것 강의를 보고 복습차원에서 작성하였습니다.앞선 내용들 까지는 RNN의 구조와 문제점, lstm, gru에 대해서 살펴보았습니다. 이번에서는 이러한 모델들을 가지고 Sequence-to-sequence model을 만들고

[토치의 호흡] 11 About Transformer PART 05 "Classification_by_DIY_TRANSFORMER"
썸네일 이미지 출처 : 06 NLP Basic Classification with GRU에서 진행했던 내용을 그대로 진행한다. 단, Model 부분을 Encoder와 TransformerEncoderModel로 교체할 뿐이다. 오늘은 그래서 글이 길지 않을 것이다. 기

[NLP] Transformer와 Self-Attention
Encoder-Decoder 구조의 RNN을 모두 Self-Attention으로 대체한 모델인 Transformer에 대해 배운다.

[NLP] Encoder∙Decoder 구조와 Seq2Seq, Seq2Seq with Attention
Encoder∙Decoder 구조를 활용해 sequence를 처리하고 sequence를 출력으로 내보내는 Seq2Seq 구조에 대해 알아보고 Seq2Seq에 Attention을 적용한 Seq2Seq with Attention에 대해 배운다.

Transformer_Encoder
한빛미디어 출판 "구글 BERT의 정석 " 책을 참고해서 작성하는 개인 공부 자료입니다. 혹시 내용에 저작권 등 문제가 있다면 알려주시면 감사하겠습니다.
[webSocket] 인코더/디코더 사용하기
Java API는 encoders와 decoders를 통해 WebSocket 메세지와 자바 타입간의 컨버팅을 제공하고 있다.encoder는 자바 객체를 JSON,XML, binary 형식으로 Websocket의 메세지로 전달 될 수 있게 한다.decoder는 Webso

Transformer
위 블로그 내용은 아래의 유튜브 및 블로그 글을 참조했습니다.https://nlpinkorean.github.io/illustrated-transformer/@adityathiruvengadam/transformer-architecture-attention-i

BERT - Pre-training of Deep Bidirectional Transformers for Language Understanding
BERT는 대표적인 NLU 태스크에 적합한 pre-trained 모델이다. bert는 양방향 인코더를 활용해 레이블이 없는 자연어를 학습시켜 단순하게 마지막에 가까운 레이어만 fine tuning하면 당시 QA 등의 다양한 SOTA를 달성할 수 있었다. BERT는 현재

[Basic NLP] Sequence-to-Sequence with Attention
Intro최근 몇 년간 Transformer 모델의 등장 이후 BERT, GPT, RoBERTa, XLNet, ELECTRA, BART 등과 같은 언어 모델(Language Model)이 매해 새로운 SOTA를 달성하며 등장하고 있다. 특히 언어모델의 경우 self-s

Autoencoder와 LSTM Autoencoder
Intro대표적인 자기 지도 학습인 Autoencoder와 Autoencoder에 LSTM cell을 적용해 시퀀스 학습이 가능한 LSTM Autoencoder에 대해 소개한다. 이후 다음 포스팅에는 LSTM Autoencoder를 통해 미래에 발생 할 고장이나 이상신
My first Project
입사 후 내 첫 작품입사 후 내가 맡은 첫 프로젝트 Pager Encoder (무선호출기 일명 삐삐에 신호를 보내는 장치) 를 만드는 거 였다. 무선호출기가 신호를 받으려면 당연히 신호를 보내는 장치가 있어야 한다. 신호를 보내는 장치를 Encoder라고 불렀다. 우리