# Fine Tuning

GPT fine-tuning - 7. glossary
🐰 Dongyoung:gpt 학습에 있어 pre-train, fine-tuning, in-context learning 을 설명해줘🦄 ChatGPT:GPT (Generative Pre-trained Transformer)는 대표적인 언어 모델 중 하나로, 전체적인

GPT fine-tuning - 4. training and fine-tuning
GPT는 trainsformers 의 decoder 를 사용한 autoregressive model 로서, 그 학습은 unsupervised learning, 즉 비지도 학습을 통해 수행됩니다. Transformer decoder 는 입력된 정보로 부터 sequence

GPT fine-tuning - 3. memory
뉴런을 모사한 인공뉴런으로 구성된 딥러닝 모델에 있어서의 "기억" 은, 어쩌면 인간의 뇌에서 기억하는것보다도 더 추상적일지도 모르겠습니다. 인간의 기억과 딥러닝의 기억을 비교해서 주관적으로 해석해본다면 다음과 같습니다.

GPT fine-tuning - 2. fine-tuning on OpenAI Platform
앞선 포스트에 이어 준비된 데이터를 가지고 fine-tuning 을 진행합니다.fine-tuning 은 다음의 명령어로 수행 가능합니다openai api fine_tunes.create -t "./데이터.jsonl" -m 모델이름 --n_epochs 에폭수외에도 lea

GPT fine-tuning - 1. data preparation on OpenAI Platform
OpenAI 는 GPT 모델에 대한 fine-tuning 을 PaaS 형태로 제공해줍니다. 기본적으로 공식 Documentation 에서 사용방법에 대해 상세히 소개하고 있으며, 본 기록은 이를 따라하면서 경험한 내용입니다.OpenAI Official Documenta

GPT fine tuning - 0. at the beginning
'23년 ChatGPT 광풍과 함께, 작년부터 진행하던 Vision 프로젝트들이 엎어지고 GPT 관련 보고와 시장조사를 주로 하게 되었습니다. 보고서와 시장조사만 보다 끝내기보다는 GPT fine tuning 을 진행해보고 이에대한 기록을 남겨보자 합니다.

Transfer learning & fine-tuning
Introduction: 한 문제에 대해 학습된 피쳐를 구성하고, 새롭고 유사한 문제에 활용하는 것으로 구성된다. 예를 들면, 호랑이를 식별하는 방법을 배운 모델의 기능은 고양이를 식별하기 위한 모델을 시작하는 데 유용하다. ✅ transfer learning은 일반적
[Tensorflow]전이학습(Transfer Learning)과 미세조정(Fine-tuning)
전이학습이란 이미 학습되어 제공되는 모델을 활용하는 방법으로, 모델을 그대로 사용하지는 않고 모델의 feature extractor 부분만 사용하고 estimator는 다르게 사용하는 방법을 의미한다.쉽게 말해서 개/고양이 분류 모델이 이미 학습까지 되어 제공되었을 때
KoBERT fine-tuning : Sentiment Analysis
2018년 구글에서 공개한 BERT는 수많은 NLP task에서 아주 높은 성능을 보여주었다. 하지만 BERT로 한국어를 처리할 경우 영어보다 정확도가 떨어진다. KoBERT 모델은 SKTBrain에서 한국어 위키 5백만 문장과 한국어 뉴스 2천만 문장을 학습시켜 한국
GPT-3 파인튜닝
Large scale 모델의 전체 파라미터를 튜닝하는 것은 많은 비용을 발생새로운 방법론인 In-context Learning, P-tuning, LoRA을 알아보자Few Shot별도의 gradient update 가 없음 (즉, 학습이 없음)Prompt enginee

[NLP] PyTorch Lightning 라이브러리를 이용한 Binary-Classification Fine-tuning.
최근 NLP에선 BERT계열 모델을 활용한 Trnasfer-Learning이 굉장히 🔥hot🔥하다. 사실 Transfer-Learning이 유명해지게된 것은 Computer Vision 분야인데 BERT가 나오면서 NLP 분야에서도 Transfer-Learning이

Improving Language Understanding by Generative Pre-Training(by 장준영)
GPT1 정리 내용입니다.

Improving Language Understanding by Generative Pre-training(by 안재혁)
The ability to learn effectively from raw text is crucial to alleviating the depedence on supervised learning in natural language precessing(NLP). Mos
[D&A 운영진 딥러닝 스터디] 3주차 2차시
이미지 분류 모델을 측정하기 위한 데이터로 가장 많이 사용하는 데이터셋2만 개 이상의 클래스와 약 1400만장의 이미지로 구성ILSVRC(ImageNet Large Scale Visual Recognition Challenge) 대회에서 사용Yann LeCun 교수가
Transfer-Learning vs Fine-tuning vs Domain-Adaptation
Using Transfer Learning you should freeze some layers, mainly the pre-trained ones and only train in the added ones,In Transfer Learning or Domain Ada
KoGPT2 동화 데이터 학습하기
졸업 프로젝트로 '상호작용을 통한 동화 창작 서비스'를 기획하게 되었다. 머신러닝에 대해 무지했던 터라 삽질을 많이 했지만 이번 실습을 통해 GPT를 조금이나마 이해하게 된 것 같다. 물론 아직 갈 길이 너무 멀다. 미래의 나야 미리 힘내라 😂 이번 실습에서는 SK
transfer learning and fine-tuning
https://www.tensorflow.org/tutorials/images/transfer_learningAs the original dataset doesn't contain a test set, you will create one. To do so, d

[Basic NLP] Transformers와 Tensorflow를 활용한 BERT Fine-tuning
이번 포스트에서는 🤗HuggingFace의 Transformers 라이브러리와 Tensorflow를 통해 사전 학습된 BERT모델을 Fine-tuning하여 Multi-Class Text Classification을 수행하는 방법에 대해 알아보고자 한다. 특히 이번