Go to file
MyeonghoeLee 5f5435cec7 셸 스크립트 안정성 개선 (실행 흐름 변경 없음)
- stop.sh/stop-mlx.sh: kill -9 → SIGTERM 후 2초 대기, 미종료 시 SIGKILL fallback
- stop-mlx.sh/stop-ollama.sh: docker ps에 2>/dev/null 추가 (Docker 미실행 시 에러 억제)
- stop-ollama.sh: brew 명령어 존재 여부 체크 추가
- setup.sh: VRAM_MB 빈 값 방어 코드 추가 (set -e 크래시 방지)
- setup-ollama.sh: sleep 3 → 최대 15초 readiness 체크 루프로 교체

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-03-31 11:17:09 +09:00
docker-compose.mlx.yml Qwen3.5 + Open WebUI 로컬 서빙 환경 셋업 2026-03-25 21:36:28 +09:00
docker-compose.yml Qwen3.5 + Open WebUI 로컬 서빙 환경 셋업 2026-03-25 21:36:28 +09:00
README.md vLLM 상세 가이드 (SETUP_VLLM.md) 추가 2026-03-26 15:20:57 +09:00
SETUP_MLX.md 입출력 토큰 제한 적용 (Ollama + MLX 모두) 2026-03-25 22:32:57 +09:00
SETUP_OLLAMA.md Qwen3.5 + Open WebUI 로컬 서빙 환경 셋업 2026-03-25 21:36:28 +09:00
SETUP_VLLM.md vLLM 상세 가이드 (SETUP_VLLM.md) 추가 2026-03-26 15:20:57 +09:00
setup-mlx.sh 입출력 토큰 제한 적용 (Ollama + MLX 모두) 2026-03-25 22:32:57 +09:00
setup-ollama.sh 셸 스크립트 안정성 개선 (실행 흐름 변경 없음) 2026-03-31 11:17:09 +09:00
setup-vllm.sh vLLM 지원 추가 및 통합 셋업/종료 스크립트 2026-03-26 15:07:21 +09:00
setup.sh 셸 스크립트 안정성 개선 (실행 흐름 변경 없음) 2026-03-31 11:17:09 +09:00
stop-mlx.sh 셸 스크립트 안정성 개선 (실행 흐름 변경 없음) 2026-03-31 11:17:09 +09:00
stop-ollama.sh 셸 스크립트 안정성 개선 (실행 흐름 변경 없음) 2026-03-31 11:17:09 +09:00
stop-vllm.sh vLLM 지원 추가 및 통합 셋업/종료 스크립트 2026-03-26 15:07:21 +09:00
stop.sh 셸 스크립트 안정성 개선 (실행 흐름 변경 없음) 2026-03-31 11:17:09 +09:00

Qwen3.5 로컬 서빙 + Open WebUI

Qwen3.5-35B 모델을 로컬에서 서빙하고, Open WebUI로 채팅할 수 있는 환경을 원클릭으로 구축합니다.

텍스트 대화 + 이미지 입력 모두 지원합니다.


빠른 시작

# 시스템 환경을 자동 감지하여 최적의 방식을 선택합니다
./setup.sh

# 종료 (실행 중인 서비스를 자동 감지하여 종료)
./stop.sh

셋업 완료 후 http://localhost:3000 접속

첫 접속 시 회원가입 → 첫 번째 계정이 관리자(admin)입니다.


자동 감지 기준

조건 선택 이유
NVIDIA GPU 있음 vLLM CUDA 가속, 가장 빠름
Apple Silicon + RAM 32GB↑ MLX Mac GPU 최적화
Apple Silicon + RAM 부족 Ollama 메모리 관리 우수
그 외 Ollama 범용, CPU에서도 동작

방식별 비교

Ollama MLX (vllm-mlx) vLLM
환경 Mac / Linux Apple Silicon Mac NVIDIA GPU (Linux)
장점 간편, 설정 적음 Mac GPU 최적화 CUDA 가속, 고성능
이미지 입력 O O O
개별 셋업 ./setup-ollama.sh ./setup-mlx.sh ./setup-vllm.sh
개별 종료 ./stop-ollama.sh ./stop-mlx.sh ./stop-vllm.sh

사전 요구사항

공통:

  • Docker Desktop (또는 Docker Engine) 설치 및 실행

Ollama:

  • Homebrew

MLX:

  • Apple Silicon Mac (M1/M2/M3/M4)
  • Python 3.10+
  • RAM 32GB 이상 권장

vLLM:

  • NVIDIA GPU (VRAM 20GB 이상 권장)
  • nvidia-container-toolkit

파일 구조

├── setup.sh                 # 통합 셋업 (자동 감지)
├── stop.sh                  # 통합 종료 (자동 감지)
│
├── setup-ollama.sh          # Ollama 셋업
├── setup-mlx.sh             # MLX 셋업
├── setup-vllm.sh            # vLLM 셋업
│
├── stop-ollama.sh           # Ollama 종료
├── stop-mlx.sh              # MLX 종료
├── stop-vllm.sh             # vLLM 종료
│
├── docker-compose.yml       # Ollama용
├── docker-compose.mlx.yml   # MLX용
├── docker-compose.vllm.yml  # vLLM용 (자동 생성)
│
├── SETUP_OLLAMA.md          # Ollama 상세 가이드
└── SETUP_MLX.md             # MLX 상세 가이드

상세 가이드

수동 설치, 파라미터 조정, 트러블슈팅 등은 아래 문서를 참고하세요.

  • SETUP_OLLAMA.md — Ollama 방식 상세
  • SETUP_MLX.md — MLX 방식 상세 (파라미터 레퍼런스, 이미지 프로세서 패치 설명 포함)
  • SETUP_VLLM.md — vLLM 방식 상세 (NVIDIA GPU, VRAM별 권장 설정)