全球主机交流论坛

 找回密码
 注册

QQ登录

只需一步,快速开始

CeraNetworks网络延迟测速工具IP归属甄别会员请立即修改密码
查看: 631|回复: 0

在 BWH VM 上部署你的专属 AI 聊天机器人

[复制链接]
发表于 3 天前 | 显示全部楼层 |阅读模式
本帖最后由 theguy 于 2025-10-25 20:19 编辑

想要一个属于你自己的 “GPT“”?
本教程教你在 BWH 云主机上部署一个完全开源、免费、可定制的 AI 聊天系统。
无需 GPU、无需外部 API,仅用几行命令即可拥有属于自己的智能助手。
# 一、项目简介

目标:
在一台 BWH 提供的虚拟机(VM)上,部署一个本地运行的 AI 聊天机器人。

功能特点:

支持开源模型(Llama、Mistral、Qwen、Gemma 等)

网页端访问界面(Open WebUI)

数据完全私有,存储在本地 VM

可自定义人格、主题、外观样式

无需 GPU,CPU 模式即可运行小模型


# 二、技术架构

部署使用两个核心组件:

组件        功能        Docker 镜像
Ollama        模型运行引擎(负责加载大模型)        ollama/ollama
Open WebUI        Web 聊天界面        ghcr.io/open-webui/open-webui

架构示意:

浏览器(Chat 界面)
   ↓
Open WebUI(前端界面)
   ↓
Ollama(本地模型后端)
   ↓
Llama / Qwen / Mistral 等模型


所有数据与模型都在你的服务器上处理,无需联网调用外部 API。

# 三、系统要求
项目        建议配置
操作系统        Ubuntu 22.04 / Debian 12
CPU        2 核以上
内存        4GB 起(推荐 8GB)
磁盘空间        20GB 以上(存模型文件)
网络        能访问外网(用于下载模型)

检查安装是否成功:

docker version

2.创建项目目录
mkdir -p ~/ai-bot && cd ~/ai-bot

3.新建配置文件 docker-compose.yml
version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: unless-stopped
    ports:
      - "11434:11434"
    volumes:
      - ./ollama:/root/.ollama

  openwebui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: openwebui
    restart: unless-stopped
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_API_BASE_URL=http://ollama:11434
    depends_on:
      - ollama

4.启动服务
docker compose up -d

发表于 3 天前 来自手机 | 显示全部楼层
Copilot差不多了
发表于 前天 09:46 | 显示全部楼层
论坛上这种技术分享贴不多了
您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|全球主机交流论坛

GMT+8, 2025-10-28 03:35 , Processed in 0.102365 second(s), 8 queries , Gzip On, MemCache On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表