openwebui/README.md
MyeonghoeLee ce0233985f README 추가
Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-03-25 22:06:46 +09:00

2.0 KiB

Qwen3.5 로컬 서빙 + Open WebUI

로컬 Mac에서 Qwen3.5-35B 모델을 서빙하고, Open WebUI로 채팅할 수 있는 환경을 원클릭으로 구축합니다.

텍스트 대화 + 이미지 입력 모두 지원합니다.


방식 선택

Ollama MLX (vllm-mlx)
장점 간편, 설정 적음 Mac GPU 최적화, 파라미터 직접 제어
이미지 입력 O O
환경 Homebrew + Docker Python venv + Docker
셋업 ./setup-ollama.sh ./setup-mlx.sh
종료 ./stop-ollama.sh ./stop-mlx.sh

사전 요구사항

  • Mac (MLX 방식은 Apple Silicon 필수)
  • Docker Desktop 설치 및 실행
  • Homebrew (Ollama 방식)
  • Python 3.10+ (MLX 방식)
  • RAM 32GB 이상 권장 (4bit 모델 기준 ~20GB 사용)

사용법

Ollama 방식

# 셋업 (Ollama 설치 → 모델 다운로드 → Open WebUI 실행)
./setup-ollama.sh

# 종료
./stop-ollama.sh

MLX 방식

# 셋업 (venv → vllm-mlx 설치 → 패치 → Open WebUI → 서버 시작)
./setup-mlx.sh

# 종료
./stop-mlx.sh

셋업 완료 후 http://localhost:3000 접속

첫 접속 시 회원가입 → 첫 번째 계정이 관리자(admin)입니다.


파일 구조

├── setup-ollama.sh          # Ollama 원클릭 셋업
├── setup-mlx.sh             # MLX 원클릭 셋업
├── stop-ollama.sh           # Ollama 종료
├── stop-mlx.sh              # MLX 종료
├── docker-compose.yml       # Ollama용 Open WebUI
├── docker-compose.mlx.yml   # MLX용 Open WebUI
├── SETUP_OLLAMA.md          # Ollama 상세 가이드
└── SETUP_MLX.md             # MLX 상세 가이드 (파라미터, 트러블슈팅)

상세 가이드

수동 설치, 파라미터 조정, 트러블슈팅 등은 아래 문서를 참고하세요.

  • SETUP_OLLAMA.md — Ollama 방식 상세
  • SETUP_MLX.md — MLX 방식 상세 (파라미터 레퍼런스, 이미지 프로세서 패치 설명 포함)