# LLM

28개의 포스트
post-thumbnail

뤼튼테크놀로지스 프롬프톤 참가 후기와 작업일지 (feat. 🏆)

뤼튼 테크놀로지스에서 주최한 프롬프톤의 참여 후기와 작업 과정을 기록한 글

4일 전
·
0개의 댓글
·
post-thumbnail

[논문 리뷰] Language Models are Unsupervised Multitask Learners

거대 생성모델의 시초가 되는 GPT의 변천 과정을 살펴보기 위해 선택했다.언어 모델이 다운스트림 태스크에서 zero-shot setting 만으로 다양한 분야에서 좋은 성능을 보일 수 있음을 증명하였다.지금까지의 연구는 단일 과제에 특화된 단일 모델을 개발하는데 치중되

5일 전
·
0개의 댓글
·
post-thumbnail

RLHF란?

RLHF에 대해 알아보자

6일 전
·
0개의 댓글
·
post-thumbnail

Instruction Tuning이란?

LLM에 사용되는 Instruction tuning에 대해 알아보자

7일 전
·
0개의 댓글
·
post-thumbnail

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (+) 회고와 봇치봇 실습

DeepLearning.AI의 ChatGPT Prompt Engineering for Developers 강의를 정리하고 회고를 겸한 고토 히토리 봇만들기 실습 (사심가득)

2023년 5월 24일
·
3개의 댓글
·
post-thumbnail

Google "We Have No Moat, And Neither Does OpenAI"

유출된 구글의 AI 전략 (오픈 소스)

2023년 5월 24일
·
0개의 댓글
·
post-thumbnail

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (3) 프롬프트 엔지니어링으로 할 수 있는 일

텍스트 요약하기, 추론하기, 수정하기, 확장하기, 그리고 temperature로 생성 텍스트 다양성 수정하기

2023년 5월 22일
·
0개의 댓글
·
post-thumbnail

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (2) 프롬프트를 개발하는 방식

귀찮을 수도 있지만 매우 중요한 (에러 분석 - 프롬프트 수정)의 반복 작업

2023년 5월 22일
·
0개의 댓글
·
post-thumbnail

개발자를 위한 ChatGPT 프롬프트 엔지니어링 (1) 프롬프트를 작성하는 원칙

명료하고 구체적으로 작업하고 모델에게 생각할 시간을 주세요

2023년 5월 20일
·
0개의 댓글
·

OpenAI의 API Key 발급 받고 테스트 하기

맥미니의 스크린샷 단축키가 어떻게 해서든 돌아오지 않아 슬픈 텍스트 가이드

2023년 5월 19일
·
0개의 댓글
·
post-thumbnail

맛있는 최적화 AI: 뤼튼(Wrtn)

오늘은 주변에서 아무리 AI가 열풍이어도 관심없던 사람도 혹 할만한 AI를 소개합니다. 전면 무료화, GPT 4.0 무제한 사용, 글자수 제한 없음 등 파격적인 행보를 보이는 국내 AI 플랫폼, 뤼튼입니다!바로 사용하러 가볼까요?

2023년 5월 18일
·
0개의 댓글
·

Meta AI에서 개발한 ChatGPT의 대항마, LLaMA

LLaMA: Open and Efficient Foundation Language ModelsChatGPT로 세계가 떠들썩한 2023년 2월 24일, 메타AI (페이스북)에서 라마(LLaMA)를 발표했습니다.사실 메타가 언어 모델을 발표한 것은 이번이 처음이 아닙니다.

2023년 5월 3일
·
0개의 댓글
·
post-thumbnail

LLaMA: Open and Efficient Foundation Language Models Paper 리뷰

7B부터 65B의 다양한 크기로 학습을 진행(GPT-3의 175B에 비해 훨씬 작음.)독점적이고 접근 불가능한 데이터셋이 아닌 공공의 데이터를 활용하여 학습심지어 LLaMA-13B은 GPT-3(175B)에 비해 모든 벤치마크에서 성능을 능가한다.또한 LLaMA-65B은

2023년 5월 1일
·
0개의 댓글
·
post-thumbnail

[논문리뷰] Learning to summarize from human feedback

As language models become more powerful, training and evaluation are increasinglybottlenecked by the data and metrics used for a particular task. For

2023년 5월 1일
·
0개의 댓글
·
post-thumbnail

[논문리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

We introduce a new language representation model called BERT, which stands for Bidirectional Encoder Representations from Transformers. Unlike recent

2023년 5월 1일
·
0개의 댓글
·
post-thumbnail

[논문리뷰] Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

We explore how generating a chain of thought—a series of intermediate reasoningsteps—significantly improves the ability of large language models to pe

2023년 5월 1일
·
0개의 댓글
·
post-thumbnail

Google AI Bard

블로그에 올리는걸 깜빡해서 조금 늦게 올림.. 저는 개인적으로 AI 쪽으로 관심이 많은 편이었는데요, 우리 회사도 AI에 관점을 두고 있어 새 소식 전달 겸 소개글을 작성합니다

2023년 4월 24일
·
0개의 댓글
·