在 BWH VM 上部署你的专属 AI 聊天机器人
本帖最后由 theguy 于 2025-10-25 20:19 编辑想要一个属于你自己的 “GPT“”?
本教程教你在 BWH 云主机上部署一个完全开源、免费、可定制的 AI 聊天系统。
无需 GPU、无需外部 API,仅用几行命令即可拥有属于自己的智能助手。
# 一、项目简介
目标:
在一台 BWH 提供的虚拟机(VM)上,部署一个本地运行的 AI 聊天机器人。
功能特点:
支持开源模型(Llama、Mistral、Qwen、Gemma 等)
网页端访问界面(Open WebUI)
数据完全私有,存储在本地 VM
可自定义人格、主题、外观样式
无需 GPU,CPU 模式即可运行小模型
https://i.111666.best/image/eFnzx2IG6I8WOFeMj8IHW4.png
# 二、技术架构
部署使用两个核心组件:
组件 功能 Docker 镜像
Ollama 模型运行引擎(负责加载大模型) ollama/ollama
Open WebUI Web 聊天界面 ghcr.io/open-webui/open-webui
架构示意:
浏览器(Chat 界面)
↓
Open WebUI(前端界面)
↓
Ollama(本地模型后端)
↓
Llama / Qwen / Mistral 等模型
所有数据与模型都在你的服务器上处理,无需联网调用外部 API。
# 三、系统要求
项目 建议配置
操作系统 Ubuntu 22.04 / Debian 12
CPU 2 核以上
内存 4GB 起(推荐 8GB)
磁盘空间 20GB 以上(存模型文件)
网络 能访问外网(用于下载模型)
检查安装是否成功:
docker version
2.创建项目目录
mkdir -p ~/ai-bot && cd ~/ai-bot
3.新建配置文件 docker-compose.yml
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: unless-stopped
ports:
- "11434:11434"
volumes:
- ./ollama:/root/.ollama
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: openwebui
restart: unless-stopped
ports:
- "3000:8080"
environment:
- OLLAMA_API_BASE_URL=http://ollama:11434
depends_on:
- ollama
4.启动服务
docker compose up -d
牛啊 Copilot差不多了 论坛上这种技术分享贴不多了
页:
[1]
