Continue-Ollama 연결

meenzoon·2025년 12월 2일

Ollama

Ollama 설치 스크립트 실행

curl -fsSL https://ollama.com/install.sh | sh

Ollama 외부 연결 허용 방법

vi /etc/systemd/system/ollama.service

# 해당 내용 [Service] 섹션에 추가
Environment="OLLAMA_HOST=0.0.0.0"

서비스 재시작

systemctl daemon-reload
systemctl restart ollama

netstat -tulpn | grep "11434"

Ollama 서비스 실행 방법

systemctl status ollama

SELinux 때문에 systemctl 을 통해서 실행 안 될 경우

semanage fcontext -a -t bin_t "/usr/local/bin/ollama"
restorecon -v /usr/local/bin/ollama

Ollama 특정 모델 실행

ollamaa pull [모델명]
ollama run [모델명]

Continue

VSCode 나 Intellij에 Continue 플러그인을 설치한다

Intellij

Intellij에서 왼쪽이나 오른쪽 탭에 Continue 메뉴를 클릭한다.
Intellij 에서 모델을 생성하면 .continue/config.yaml 파일이 자동으로 생성되므로, config.yaml 파일에 다음과 같이 설정하면 된다.

name: Local Config
version: 1.0.0
schema: v1
models:
  - name: [모델명]
    provider: ollama
    model: [모델 정보]
    apiBase: http://[서버IP]:11434

0개의 댓글