# LLM

[논문 리뷰] Language Models are Unsupervised Multitask Learners
거대 생성모델의 시초가 되는 GPT의 변천 과정을 살펴보기 위해 선택했다.언어 모델이 다운스트림 태스크에서 zero-shot setting 만으로 다양한 분야에서 좋은 성능을 보일 수 있음을 증명하였다.지금까지의 연구는 단일 과제에 특화된 단일 모델을 개발하는데 치중되

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (+) 회고와 봇치봇 실습
DeepLearning.AI의 ChatGPT Prompt Engineering for Developers 강의를 정리하고 회고를 겸한 고토 히토리 봇만들기 실습 (사심가득)

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (3) 프롬프트 엔지니어링으로 할 수 있는 일
텍스트 요약하기, 추론하기, 수정하기, 확장하기, 그리고 temperature로 생성 텍스트 다양성 수정하기

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (2) 프롬프트를 개발하는 방식
귀찮을 수도 있지만 매우 중요한 (에러 분석 - 프롬프트 수정)의 반복 작업

맛있는 최적화 AI: 뤼튼(Wrtn)
오늘은 주변에서 아무리 AI가 열풍이어도 관심없던 사람도 혹 할만한 AI를 소개합니다. 전면 무료화, GPT 4.0 무제한 사용, 글자수 제한 없음 등 파격적인 행보를 보이는 국내 AI 플랫폼, 뤼튼입니다!바로 사용하러 가볼까요?

[논문 리뷰] Language Models are Few-Shot Learners (GPT-3, NeurIPS 2020)
GPT-3 Paper review
Meta AI에서 개발한 ChatGPT의 대항마, LLaMA
LLaMA: Open and Efficient Foundation Language ModelsChatGPT로 세계가 떠들썩한 2023년 2월 24일, 메타AI (페이스북)에서 라마(LLaMA)를 발표했습니다.사실 메타가 언어 모델을 발표한 것은 이번이 처음이 아닙니다.

LLaMA: Open and Efficient Foundation Language Models Paper 리뷰
7B부터 65B의 다양한 크기로 학습을 진행(GPT-3의 175B에 비해 훨씬 작음.)독점적이고 접근 불가능한 데이터셋이 아닌 공공의 데이터를 활용하여 학습심지어 LLaMA-13B은 GPT-3(175B)에 비해 모든 벤치마크에서 성능을 능가한다.또한 LLaMA-65B은

[논문리뷰] Learning to summarize from human feedback
As language models become more powerful, training and evaluation are increasinglybottlenecked by the data and metrics used for a particular task. For

[논문리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
We introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent

[논문리뷰] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
We explore how generating a chain of thought—a series of intermediate reasoningsteps—significantly improves the ability of large language models to pe

Google AI Bard
블로그에 올리는걸 깜빡해서 조금 늦게 올림.. 저는 개인적으로 AI 쪽으로 관심이 많은 편이었는데요, 우리 회사도 AI에 관점을 두고 있어 새 소식 전달 겸 소개글을 작성합니다