오늘은 LLM 응답 품질을 높이기 위한RAG(Retrieval-Augmented Generation)를 알아보려한다. RAG(Retrieval-Augmented Generation) LLM은 똑똑하지만 동시에 한계도 존재한다. Hallucination 없는 정보를 있는 것처럼 응답하는 현상 Train-based knowledge ...

오늘은 최근 NeurIPS에 게재된 논문에서 제안한 SpecEdge(스펙엣지)에 대해 알아보자!

오늘은 LLM 디코더의 Multi Head Attention 대신 사용하는 Multi-Query Attention. Grouped-Query Attention에 대해 알아보자!

오늘은 동시에 처리 가능한 토큰 길이를 늘릴 수 있기 한 ALiBi에 대해 알아보자!

오늘은 LLM을 활용한 토픽 모델인 PBM에 대해 알아보자!

오늘은 토크나이저를 직접 생성하는 방법에 대해 알아보자!

어텐션 매커니즘에 대해 정리!

오늘은 LLM을 사용한 텍스트 증강과 PVTM 모델에 대해 알아보자!

오늘은 LLM의 jailbreak 문제에 대해 알아보자!

평가지표 NPMI에 대해!

DistilBERT에서 각 레이어 별 임베딩 추출!

seq2seq라고도 불리는 시퀀스 투 시퀀스 모델에 대해!

오늘은 토픽 모델링할 때 프롬프트 엔지니어링 사용 대해!

오늘은 대표적인 Static Word Embedding 모델인 GloVe에 대해서 알아보자!