Ollama?
- Get up and running with large language models locally.
- ์คํ์์ค LLM ๋ชจ๋ธ์ local์์ ๋์์ ๊ตฌ๋ํ๋ ๊ฐ์ฅ ์์ฌ์ด ๋ฐฉ๋ฒ
- windows, macos์์๋ ๊ตฌ๋๋๊ธฐ ๋๋ฌธ์ ๋๋ฌด๋ ๊ฐ๋จํ๊ฒ llama3, gemma, phi-3, command-r ๋ฑ ์ด๋์ ๋ ํ๊ธ์ด ๋๋ ๋ชจ๋ธ๋ค์ ๋ค์ด๋ก๋ ๋ฐ์์ ๊ตฌ๋์ํฌ ์ ์๋ค
- ๊ตฌ๋๋๋ฉด langchain๊ณผ๋ ๋ฐ๋ก ์ฐ๊ฒฐ๋๋ค
์ค์น
curl -fsSL https://ollama.com/install.sh | sh
QuickStart
ollama run llama3
ํ
์คํธ
Reference
https://github.com/ollama/ollama/tree/main
https://infoengineer.tistory.com/m/137