์ผ๋ง์ ์์ ์ ์ผ๋ก๋ ์ฌ์ฉ๊ฐ๋ฅํ llama2๊ฐ ๋์์ต๋๋ค.๐ค
์ง์ ์ฌ์ฉํด๋ณด๊ณ ์ถ์๊ธฐ ๋๋ฌธ์ ์ค๋์ localGPT๋ผ๋ ํ๋ก์ ํธ๋ฅผ์์ llama2๋ฅผ ์ด์ฉํ๋ ๋ฐฉ๋ฒ์ ์๊ฐํ๋๋ก ํ๊ฒ ์ต๋๋ค.
localGPT๋ ์์ ํฌ์คํ ํ๋ privateGPT์์ ์๊ฐ์ ์ป์๋คํ๊ณ , ๋ด์ฉ์ด๋ ์ฝ๋์ ์ผ๋ก ๊ต์ฅํ ์ ์ฌํฉ๋๋ค.
[privateGPT์์ ์ฐจ๋ณ์ ]
- GPT4ALL ๋ชจ๋ธ์ Vicuna-7B ๋ชจ๋ธ๋ก ๊ต์ฒด
- LlamaEmbeddings ๋์ InstructorEmbeddings๋ฅผ ์ฌ์ฉ
- ์๋ฒ ๋ฉ๊ณผ LLM์ ๋ชจ๋ CPU ๋์ GPU์์ ์คํ (GPU๊ฐ ์๋ ๊ฒฝ์ฐ CPU๋ ์ง์)
์ ๋ ์ฌ๊ธฐ์ Vicuna-7B ๋ชจ๋ธ์ ๋ค์ llama2-7B-chat ๋ชจ๋ธ๋ก ๊ต์ฒดํด๋ณด๋๋ก ํ๊ฒ ์ต๋๋ค.
conda create -n localGPT
conda activate [๊ฐ์ํ๊ฒฝ ์ด๋ฆ] pyhton==3.10
git clone https://github.com/PromtEngineer/localGPT.git
cd localGPT
pip install -r requirements.txt
์ด ๋จ๊ณ์์๋ ๋ด๊ฐ ์ํ๋ ๋ฌธ์(dox,pdf,csv ์ง์)๋ฅผ chunk๋จ์๋ก ๋ถํ ํ๊ณ ์๋ฒ ๋ฉ ๊ฐ์ผ๋ก ๋ณํํ๋ ์ผ์ ํฉ๋๋ค.
SOURCE_DOCUMENTS
ํ์ผ์ ๋ฃ์ด์ฃผ์ธ์.python ingest.py
ํ ์คํธ์ด์ ๋๋์ด ์ ๊ฐ ์ฌ์ฉํ llama๋ฅผ ๋ฃ์ด๋ณด๋ ์๊ฐ์ ๋๋ค.
llama2๊ฐ์ ๊ฒฝ์ฐ์๋ metaAI์ huggingface์์๋ ์น์ธ ์์ฒญ์ด ํ์ํฉ๋๋ค. (์์ธํ ๋ด์ฉ์ ์๋ต)
huggingface์์ ํค๋ฅผ ๋ฐ๊ธ๋ฐ์ผ์ จ๋ค๋ฉด llama2์ฌ์ฉ์ Token์ key๋ฅผ ์ ๋ ฅํด์ฃผ์ธ์.
huggingface-cli login
model_id
๋ฅผ ์ฐพ์์ฃผ์ธ์.python run_localGPT.py
- ์ ๋ ๊ฐ์ธ์ ์ผ๋ก llama2์ ๊ต์ฅํ ๊ธฐ๋๋ฅผ ๊ฑธ์๋๋ฐ์...!
- ์ ์ ์ ์คํ์์๋ ๋ฌธ์์ ๋ํด ์ฌ๋ฌ์ง๋ฌธ๋ค์ ํ์ ๋, vicuna-7b๊ฐ ์ฑ๋ฅ์ด ๋ ์ข์์ต๋๋ค.
- ๋ llama2-13b๋ ์ฌ์ฉํด๋ณด๋ ค๊ณ ํ์ผ๋ ๋ฉ๋ชจ๋ฆฌ ๋ถ์กฑ์ผ๋ก ๋ชปํ๊ฒ ์์ฝ์ต๋๋ค.