Ollama 설치 스크립트 실행
curl -fsSL https://ollama.com/install.sh | sh
Ollama 외부 연결 허용 방법
vi /etc/systemd/system/ollama.service
# 해당 내용 [Service] 섹션에 추가
Environment="OLLAMA_HOST=0.0.0.0"
서비스 재시작
systemctl daemon-reload
systemctl restart ollama
netstat -tulpn | grep "11434"
Ollama 서비스 실행 방법
systemctl status ollama
SELinux 때문에 systemctl 을 통해서 실행 안 될 경우
semanage fcontext -a -t bin_t "/usr/local/bin/ollama"
restorecon -v /usr/local/bin/ollama
Ollama 특정 모델 실행
ollamaa pull [모델명]
ollama run [모델명]
VSCode 나 Intellij에 Continue 플러그인을 설치한다
Intellij에서 왼쪽이나 오른쪽 탭에 Continue 메뉴를 클릭한다.
Intellij 에서 모델을 생성하면 .continue/config.yaml 파일이 자동으로 생성되므로, config.yaml 파일에 다음과 같이 설정하면 된다.
name: Local Config
version: 1.0.0
schema: v1
models:
- name: [모델명]
provider: ollama
model: [모델 정보]
apiBase: http://[서버IP]:11434