
- 해시 알고리즘 문제
- 탐욕법 (Greedy) 알고리즘 문제
- 정렬 문제
- 특강 : ChatGPT 활용하기
해시 (Hash) : 요소들을 해시 함수를 이용하여 다른 값으로 변환하여 해시 테이블에 저장하는 방법. 문자열과 같은 요소들을 다루는데 유용하다.
탐욕법 (Greedy Algorithm) : 알고리즘의 각 단계에서 그 순간에 최적이라고 생각되는 것을 선택. 현재의 선택이 마지막 해답의 최적성을 해치지 않을 때 사용가능하다.
https://velog.io/@hjjwa1234/lv1%EC%B2%B4%EC%9C%A1%EB%B3%B5
https://velog.io/@hjjwa1234/lv1%ED%81%B0-%EC%88%98-%EB%A7%8C%EB%93%A4%EA%B8%B0
https://velog.io/@hjjwa1234/lv1%EA%B0%80%EC%9E%A5-%ED%81%B0-%EC%88%98
다음에 오는 문장이나 단어를 확률적으로 예측하는 모델,
Temperature라는 비율을 사용해서random의 정도를 결정.
웹상에서 존재하는 문서들이 모델의 훈련 데이터가 된다. 품질이 중요하기 때문에 위키피디아와 같은 공인된 문서를 사용한다.
이를 코드에도 적용 가능하며 이 경우 Github이 훈련용 데이터가 된다. Unsupervised Learning(정답이 없는 학습) 에 사용된다.
context window의 크기에 따라 모델의 메모리를 결정, context window 가 4이면 3개의 토큰을 보고 1개의 토큰 예측을 훈련한다.
워드 임베딩(Word Embedding) : 단어를 그대로 사용할 수 없기 때문에 이를 숫자로 변환한 후 (One-Hot encoding) 다시 N차원 공간의 벡터로 변환한다. 데이터의 크기를 줄이고 단어간의 유사도를 측정 가능하게 된다.
OpenAI에서 만든 초거대 언어 모델로
Word Completion,Code Completion모델을 제공한다.
GPT를 챗봇의 형태로
Fine-Tunig한 프로그램.RLHF (Reinforcement Learning from Human Feedback)이라는 방법으로 학습.
직접 구현 (사실상 불가)
기존 LLM Fine Tuning (쉽지 않음)
Fine Tuning : 기존 모델위에 새로운 레이어를 얹어 다른 용도의 데이터로 훈련하는 것 (EX) ChatGPT). GPT는 이를 API로 지원함.
LLM을 그대로 사용하되 컨텍스트 정보를 프롬프트의 일부로 보내기
좋은 프롬프트 형식
- Act as a
Role,Task, in aFormatusing aTone
The main objective is toObjective, don't useRestriction
GPT 관련 특강을 듣고난 후 해당 강의에 포함되어 있던 내용들을 따로 찾아보는데 너무 어려운 개념들이 많아서 앞으로 열심히 해야겠다는 생각이 들었습니다.