# GPT

69개의 포스트
post-thumbnail

[Cowork#003] 논문 요약 GPT

<GPT의 주니어 Human 비서 요한 👨‍💻> 논문 쉽게 읽기 프로젝트 #3: 논문 abstract 요약

약 7시간 전
·
0개의 댓글
·

Decoding and GPT

인코더와 디코더트랜스포머는 Seq2Seq 모형 (입력 시퀀스 → 출력 시퀀스)인코더 : 입력 시퀀스를 처리하는 부분(양방향 attention), 문장의 의미 이해디코더 : 출력 시퀀스를 처리하는 부분(단방향 attention), 새로운 문장 생성GPT : OpenAI에

3일 전
·
0개의 댓글
·
post-thumbnail

GPT in action - 1. chatGPT 로 만드는 지능형 챗봇

최근 저희 팀에서는 GPT 의 fine tuning 에 앞서 GPT 의 In-context learning 을 활용하여 별도의 fine tuning 없이 활용하는 방법도 시도해보고 있습니다. 이러한 방법은 여러모로 장점도 많고, 실제로 잘 동작하는것으로 평가하고 있습니

5일 전
·
1개의 댓글
·

[3/13~3/19] 개발자들이 많이 읽은 글 TOP 5 | 커리어리

안녕하세요, 요즘 개발자들의 커뮤니티 커리어리에서 지난 한 주간 개발자 분들에게 도움이 된 글 5개를 공유합니다. 여러분들에게 도움이 되었으면 좋겠습니다! [1] 마침내 발표된 GPT4···어떤 '물건'인가 GPT1부터 4까지 자세히 비교하면서 GPT4를 소개한

6일 전
·
0개의 댓글
·
post-thumbnail

[Cowork#002] ChatGPT API 연동하기.

<GPT의 주니어 Human 비서 요한 👨‍💻> 논문 쉽게 읽기 프로젝트 #2: ChatGPT API 연동하기.

6일 전
·
0개의 댓글
·
post-thumbnail

[Cowork#001] PDF에서 텍스트 추출하기.

<GPT의 주니어 Human 비서 요한 👨‍💻> 논문 쉽게 읽기 프로젝트 #1: PDF에서 텍스트 뽑아내기.

6일 전
·
0개의 댓글
·

[1] GPT - ChatGPT시작

이후로는 NLP, GPT에 대해 연구하고 공부할 예정입니다.

2023년 3월 19일
·
0개의 댓글
·
post-thumbnail

Slack x AWS로 나만의 ChatGPT 봇 만들기

Slack 봇과 OpenAI의 GPT-3.5를 활용한 챗봇 ChatGPT 구현 방법을 소개합니다. AWS Lambda를 사용하여 Slack Bot을 구현하고 gpt-3.5-turbo API를 호출하여 질의 응답을 수행합니다.gpt-3.5-turbo 기반의 api를 사용

2023년 3월 19일
·
0개의 댓글
·

ChatGPT의 작동방식, 간략하게 알아보기

ChatGPT는 대화형 인공지능 모델로 GPT(Generative Pre-trained Transformer)모델을 기반으로 합니다. GPT란 단어 그대로 해석하면 생성하는 사전 학습된 트랜스포머입니다. GPT는 input으로 토큰(단어, 구, 문장 등의) 시퀀스를 받

2023년 3월 15일
·
0개의 댓글
·

[3/6~3/12] 개발자들이 많이 읽은 글 TOP 5 | 커리어리

안녕하세요, 요즘 개발자들의 커뮤니티 커리어리에서 지난 한 주간 개발자 분들에게 도움이 된 글 5개를 공유합니다. 여러분들에게 도움이 되었으면 좋겠습니다! [1] 2023년에 꼭 배워야 할 12가지 필수 AI 도구 다양한 개인 및 비즈니스 업무에 유용하게 사용할

2023년 3월 15일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 7. glossary

🐰 Dongyoung:gpt 학습에 있어 pre-train, fine-tuning, in-context learning 을 설명해줘🦄 ChatGPT:GPT (Generative Pre-trained Transformer)는 대표적인 언어 모델 중 하나로, 전체적인

2023년 3월 10일
·
0개의 댓글
·
post-thumbnail

[2/27~3/5] 개발 분야 주간 인기 TOP 5 게시물 | 커리어리

안녕하세요, 요즘 개발자들의 커뮤니티 커리어리에서 지난 한 주간 개발자 분들에게 도움이 된 글 5개를 공유합니다. 여러분들에게 도움이 되었으면 좋겠습니다!

2023년 3월 8일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 6. prompt

GPT 의 in-context learning 은 HMM 모델로서 모델의 weight update 가 없음에도 그 inference 과정 자체를 하나의 학습 과정으로 볼 수 있었습니다. 즉 prompt 행위 자체가 어쩌면 GPT 모델에 대한 optimizaiton 을

2023년 3월 7일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 5. in-context learning

in-context learning 프롬프트의 내용만으로 하고자 하는 task 를 수행하는 작업입니다. 말 그대로 prompt 내 맥락적 의미(in-context)를 모델이 이해하고(learning), 이에 대한 답변을 생성하는것을 의미합니다. 즉 in-context

2023년 3월 4일
·
0개의 댓글
·
post-thumbnail

GPT로 에러 메세지를 작성한다면?

만약 GPT의 도움이 없었다면, 아마 에러메세지는 초기 버전의 형태로 나가지 않았을까... 완벽하진 않지만, 글을 다듬거나, 표현을 고치는 능력을 도움받고 에러메세지를 다듬으니 한층 부드러운 에러메세지를 만들어낼 수 있었다.

2023년 3월 3일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 4. training and fine-tuning

GPT는 trainsformers 의 decoder 를 사용한 autoregressive model 로서, 그 학습은 unsupervised learning, 즉 비지도 학습을 통해 수행됩니다. Transformer decoder 는 입력된 정보로 부터 sequence

2023년 3월 1일
·
2개의 댓글
·
post-thumbnail

GPT fine-tuning - 3. memory

뉴런을 모사한 인공뉴런으로 구성된 딥러닝 모델에 있어서의 "기억" 은, 어쩌면 인간의 뇌에서 기억하는것보다도 더 추상적일지도 모르겠습니다. 인간의 기억과 딥러닝의 기억을 비교해서 주관적으로 해석해본다면 다음과 같습니다.

2023년 2월 28일
·
0개의 댓글
·
post-thumbnail

ChatGpt, 인공지능은 어떻게 학습하는가

자연어처리연구실에서 공부했던 Chatgpt에 관한 여러 기술에 대한 소개

2023년 2월 27일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 2. fine-tuning on OpenAI Platform

앞선 포스트에 이어 준비된 데이터를 가지고 fine-tuning 을 진행합니다.fine-tuning 은 다음의 명령어로 수행 가능합니다openai api fine_tunes.create -t "./데이터.jsonl" -m 모델이름 --n_epochs 에폭수외에도 lea

2023년 2월 24일
·
0개의 댓글
·