theguy 发表于 3 天前

在 BWH VM 上部署你的专属 AI 聊天机器人

本帖最后由 theguy 于 2025-10-25 20:19 编辑

想要一个属于你自己的 “GPT“”?
本教程教你在 BWH 云主机上部署一个完全开源、免费、可定制的 AI 聊天系统。
无需 GPU、无需外部 API,仅用几行命令即可拥有属于自己的智能助手。
# 一、项目简介

目标:
在一台 BWH 提供的虚拟机(VM)上,部署一个本地运行的 AI 聊天机器人。

功能特点:

支持开源模型(Llama、Mistral、Qwen、Gemma 等)

网页端访问界面(Open WebUI)

数据完全私有,存储在本地 VM

可自定义人格、主题、外观样式

无需 GPU,CPU 模式即可运行小模型
https://i.111666.best/image/eFnzx2IG6I8WOFeMj8IHW4.png

# 二、技术架构

部署使用两个核心组件:

组件        功能        Docker 镜像
Ollama        模型运行引擎(负责加载大模型)        ollama/ollama
Open WebUI        Web 聊天界面        ghcr.io/open-webui/open-webui

架构示意:

浏览器(Chat 界面)
   ↓
Open WebUI(前端界面)
   ↓
Ollama(本地模型后端)
   ↓
Llama / Qwen / Mistral 等模型


所有数据与模型都在你的服务器上处理,无需联网调用外部 API。

# 三、系统要求
项目        建议配置
操作系统        Ubuntu 22.04 / Debian 12
CPU        2 核以上
内存        4GB 起(推荐 8GB)
磁盘空间        20GB 以上(存模型文件)
网络        能访问外网(用于下载模型)

检查安装是否成功:

docker version

2.创建项目目录
mkdir -p ~/ai-bot && cd ~/ai-bot

3.新建配置文件 docker-compose.yml
version: '3.8'
services:
ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama:/root/.ollama

openwebui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: openwebui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_API_BASE_URL=http://ollama:11434
    depends_on:
      - ollama

4.启动服务
docker compose up -d

冷雨@夜 发表于 3 天前

牛啊

gspl 发表于 3 天前

Copilot差不多了

Keensword 发表于 前天 09:46

论坛上这种技术分享贴不多了
页: [1]
查看完整版本: 在 BWH VM 上部署你的专属 AI 聊天机器人