# Fine Tuning

21개의 포스트
post-thumbnail

GPT fine-tuning - 7. glossary

🐰 Dongyoung:gpt 학습에 있어 pre-train, fine-tuning, in-context learning 을 설명해줘🦄 ChatGPT:GPT (Generative Pre-trained Transformer)는 대표적인 언어 모델 중 하나로, 전체적인

2023년 3월 10일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 4. training and fine-tuning

GPT는 trainsformers 의 decoder 를 사용한 autoregressive model 로서, 그 학습은 unsupervised learning, 즉 비지도 학습을 통해 수행됩니다. Transformer decoder 는 입력된 정보로 부터 sequence

2023년 3월 1일
·
2개의 댓글
·
post-thumbnail

GPT fine-tuning - 3. memory

뉴런을 모사한 인공뉴런으로 구성된 딥러닝 모델에 있어서의 "기억" 은, 어쩌면 인간의 뇌에서 기억하는것보다도 더 추상적일지도 모르겠습니다. 인간의 기억과 딥러닝의 기억을 비교해서 주관적으로 해석해본다면 다음과 같습니다.

2023년 2월 28일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 2. fine-tuning on OpenAI Platform

앞선 포스트에 이어 준비된 데이터를 가지고 fine-tuning 을 진행합니다.fine-tuning 은 다음의 명령어로 수행 가능합니다openai api fine_tunes.create -t "./데이터.jsonl" -m 모델이름 --n_epochs 에폭수외에도 lea

2023년 2월 24일
·
0개의 댓글
·
post-thumbnail

GPT fine-tuning - 1. data preparation on OpenAI Platform

OpenAI 는 GPT 모델에 대한 fine-tuning 을 PaaS 형태로 제공해줍니다. 기본적으로 공식 Documentation 에서 사용방법에 대해 상세히 소개하고 있으며, 본 기록은 이를 따라하면서 경험한 내용입니다.OpenAI Official Documenta

2023년 2월 24일
·
0개의 댓글
·
post-thumbnail

GPT fine tuning - 0. at the beginning

'23년 ChatGPT 광풍과 함께, 작년부터 진행하던 Vision 프로젝트들이 엎어지고 GPT 관련 보고와 시장조사를 주로 하게 되었습니다. 보고서와 시장조사만 보다 끝내기보다는 GPT fine tuning 을 진행해보고 이에대한 기록을 남겨보자 합니다.

2023년 2월 24일
·
1개의 댓글
·
post-thumbnail

Transfer learning & fine-tuning

Introduction: 한 문제에 대해 학습된 피쳐를 구성하고, 새롭고 유사한 문제에 활용하는 것으로 구성된다. 예를 들면, 호랑이를 식별하는 방법을 배운 모델의 기능은 고양이를 식별하기 위한 모델을 시작하는 데 유용하다. ✅ transfer learning은 일반적

2022년 12월 7일
·
0개의 댓글
·

[Tensorflow]전이학습(Transfer Learning)과 미세조정(Fine-tuning)

전이학습이란 이미 학습되어 제공되는 모델을 활용하는 방법으로, 모델을 그대로 사용하지는 않고 모델의 feature extractor 부분만 사용하고 estimator는 다르게 사용하는 방법을 의미한다.쉽게 말해서 개/고양이 분류 모델이 이미 학습까지 되어 제공되었을 때

2022년 10월 4일
·
0개의 댓글
·

KoBERT fine-tuning : Sentiment Analysis

2018년 구글에서 공개한 BERT는 수많은 NLP task에서 아주 높은 성능을 보여주었다. 하지만 BERT로 한국어를 처리할 경우 영어보다 정확도가 떨어진다. KoBERT 모델은 SKTBrain에서 한국어 위키 5백만 문장과 한국어 뉴스 2천만 문장을 학습시켜 한국

2022년 8월 18일
·
0개의 댓글
·
post-thumbnail

GPT-3 파인튜닝

Large scale 모델의 전체 파라미터를 튜닝하는 것은 많은 비용을 발생새로운 방법론인 In-context Learning, P-tuning, LoRA을 알아보자Few Shot별도의 gradient update 가 없음 (즉, 학습이 없음)Prompt enginee

2022년 4월 14일
·
0개의 댓글
·
post-thumbnail

[NLP] PyTorch Lightning 라이브러리를 이용한 Binary-Classification Fine-tuning.

최근 NLP에선 BERT계열 모델을 활용한 Trnasfer-Learning이 굉장히 🔥hot🔥하다. 사실 Transfer-Learning이 유명해지게된 것은 Computer Vision 분야인데 BERT가 나오면서 NLP 분야에서도 Transfer-Learning이

2022년 3월 2일
·
2개의 댓글
·
post-thumbnail

Improving Language Understanding by Generative Pre-training(by 안재혁)

The ability to learn effectively from raw text is crucial to alleviating the depedence on supervised learning in natural language precessing(NLP). Mos

2022년 2월 14일
·
0개의 댓글
·

[D&A 운영진 딥러닝 스터디] 3주차 2차시

이미지 분류 모델을 측정하기 위한 데이터로 가장 많이 사용하는 데이터셋2만 개 이상의 클래스와 약 1400만장의 이미지로 구성ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회에서 사용Yann LeCun 교수가

2022년 1월 18일
·
0개의 댓글
·

Transfer-Learning vs Fine-tuning vs Domain-Adaptation

Using Transfer Learning you should freeze some layers, mainly the pre-trained ones and only train in the added ones,In Transfer Learning or Domain Ada

2021년 11월 30일
·
1개의 댓글
·
post-thumbnail

KoGPT2 동화 데이터 학습하기

졸업 프로젝트로 '상호작용을 통한 동화 창작 서비스'를 기획하게 되었다. 머신러닝에 대해 무지했던 터라 삽질을 많이 했지만 이번 실습을 통해 GPT를 조금이나마 이해하게 된 것 같다. 물론 아직 갈 길이 너무 멀다. 미래의 나야 미리 힘내라 😂 이번 실습에서는 SK

2021년 11월 23일
·
2개의 댓글
·

transfer learning and fine-tuning

https://www.tensorflow.org/tutorials/images/transfer_learningAs the original dataset doesn't contain a test set, you will create one. To do so, d

2021년 8월 30일
·
0개의 댓글
·
post-thumbnail

[Basic NLP] Transformers와 Tensorflow를 활용한 BERT Fine-tuning

이번 포스트에서는 🤗HuggingFace의 Transformers 라이브러리와 Tensorflow를 통해 사전 학습된 BERT모델을 Fine-tuning하여 Multi-Class Text Classification을 수행하는 방법에 대해 알아보고자 한다. 특히 이번

2021년 8월 6일
·
1개의 댓글
·
post-thumbnail

[AI 모델 탐험기] #5 오만과 편견

여러분 마음대로 오만과 편견을 각색해보세요!

2021년 5월 6일
·
0개의 댓글
·