방명록
- n8n과 Ollama Docker Compose 연동하기2025년 08월 05일 11시 28분 40초에 업로드 된 글입니다.작성자: DandyNow728x90반응형
n8n과 Ollama Docker Compose 연동하기
1. 개요
- n8n은 워크플로우 자동화를 위한 강력한 도구이다.
- Ollama는 로컬 환경에서 대규모 언어 모델(LLM)을 쉽게 실행할 수 있도록 돕는 솔루션이다.
- 이 글에서는 Docker Compose를 사용하여 n8n과 Ollama를 함께 연동하는 방법을 다룬다.
localhost네트워크 통신 문제 해결부터 모델 다운로드 방법까지 상세하게 설명하는 것이 목적이다.
2. Docker Compose 파일 작성
2-1. 기존
docker run명령어 분석- 기존
docker run명령어는 다음과 같았다.docker run -d -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n - 이 명령어는 n8n 컨테이너를 구동하며,
-v옵션을 통해n8n_data라는 이름의 볼륨을 사용해 데이터를 영구적으로 저장하는 역할을 한다.
2-2.
docker-compose.yml파일 작성- n8n과 Ollama가 서로 통신할 수 있도록 같은 네트워크에 배치하는 것이 핵심이다.
- 아래는 n8n과 Ollama를 연동하기 위한
docker-compose.yml파일의 예시이다.
version: "3.8" services: n8n: image: n8nio/n8n restart: always container_name: n8n ports: - "5678:5678" volumes: - n8n_data:/home/node/.n8n networks: - n8n_ollama_net ollama: image: ollama/ollama restart: always container_name: ollama ports: - "11434:11434" networks: - n8n_ollama_net environment: - OLLAMA_HOST=0.0.0.0 networks: n8n_ollama_net: driver: bridge volumes: n8n_data:networks섹션은n8n_ollama_net이라는 커스텀 네트워크를 정의하는 부분이다.- 각 서비스(
n8n과ollama)는 이 네트워크에 연결되어 서로의 컨테이너 이름을 통해 통신할 수 있다. ollama서비스에 설정된OLLAMA_HOST=0.0.0.0환경 변수는 컨테이너 외부에서의 접속을 허용하는 역할이다.
3. Docker Compose 실행 및 Ollama 모델 다운로드
- Docker Compose 실행
- 작성된
docker-compose.yml파일이 있는 디렉토리에서 다음 명령어를 실행하면 n8n과 Ollama 컨테이너가 동시에 구동된다.
docker-compose up -d # 최신 Docker 버전에서 권장되는 방식 docker compose up -d-d옵션은 컨테이너를 백그라운드에서 실행하도록 한다.
- Ollama 모델 다운로드
docker-compose로 Ollama가 실행 중인 상태에서 모델을 다운로드하려면,docker exec명령어를 사용해야 한다.- 이 명령어는 실행 중인 컨테이너에 직접 명령을 전달하는 역할을 한다.
docker exec -it ollama ollama pull llama3ollama는 컨테이너 이름이다.ollama pull llama3는 컨테이너 내부에서 실행할 실제 명령이다(예:llama3모델 설치).
4. n8n 워크플로우 구성
- n8n UI에 접속하여 새로운 워크플로우를 만든다.
- Ollama Chat Model 노드를 추가하고, 다음과 같이 설정한다.
- Credentials:
http://ollama:11434 - Model: 다운로드한 모델의 이름을 입력한다. (예:
llama3) - Prompt: LLM에게 전달할 프롬프트를 작성한다.
- Credentials:
5. 결론
docker-compose를 사용하여 n8n과 Ollama를 함께 구동하는 것은 로컬 LLM 워크플로우를 구축하는 가장 효율적인 방법 중 하나이다.- 컨테이너 간의 네트워크 문제를 해결하고,
docker exec를 통해 컨테이너 내부에서 모델을 관리하는 방법을 익히는 것이 중요하다. - 이 방식을 통해 안정적인 환경에서 다양한 LLM 모델을 n8n 워크플로우에 활용할 수 있다.
728x90반응형'AI > AI와 일하기' 카테고리의 다른 글
MCP Inspector: 127.0.0.1로 접속해야 하는 이유 (0) 2025.09.19 AI 시대, 개발자의 생존 전략 (3) 2025.08.08 Chrome 내장 Translation API 활용 튜토리얼 (2) 2025.07.20 [번역] Cline rules (1) 2025.07.06 [LLM] 문서 임베딩, 어떤 형식이 가장 효율적일까? (0) 2025.07.05 다음글이 없습니다.이전글이 없습니다.댓글