电脑端

DeepSeek简介

DeepSeek是由杭州深思人工智能基础技术研究有限公司(成立于2023年7月17日)研发的推理模型。该模型通过强化学习进行后训练以增强推理能力,尤其擅长数学、编程、自然语言推理等复杂任务。2025年1月20日,DeepSeek正式发布DeepSeek-R1模型并同步开源模型权重。 部署DeepSeek前需先安装Ollama——这款大型语言模型框架堪称AI模型的宿主。若需美观的用户界面,则需额外安装应用程序。本教程将部署OpenWebUI应用程序来运行DeepSeek-R1模型。

OpenWebUI是一款可扩展、功能丰富且用户友好的自托管网页界面,专为完全离线运行设计。它支持多种LLM运行器,包括Ollama及兼容OpenAI的API。更多详情请参阅 OpenWebUI官方文档。

使用Docker Compose部署OpenWebUI容器(集成Ollama)

在UGOS Pro系统上,建议使用项目提供的Docker Compose进行快速容器部署,尤其在同时管理多个容器时。此方法可简化容器部署与管理流程。以下是使用Docker Compose部署OpenWebUI的详细步骤。

访问 Docker 项目界面

在UGOS Pro系统中,打开Docker应用程序,点击[项目] > [创建]启动项目创建向导。

配置 Docker Compose 文件

在项目创建向导中,复制以下适用于 OpenWebUI 的 Docker Compose 配置文件:

services:
  open-webui:
    container_name: open-webui
    image: ghcr.io/open-webui/open-webui:ollama  # 镜像名称
    # 建议添加加速器 https://docker.nju.edu.cn/
    restart: always  # 重启策略
    ports:
      - "3000:8080"  # Web服务访问端口
    volumes:
      - ./ollama:/root/.ollama  # 存储ollama相关数据
      - ./open-webui:/app/backend/data  # 存储Web UI后端数据

参数说明

参数

说明

image

指定容器镜像版本为 ghcr.io/open-webui/open-webui:ollama,该镜像集成了 Ollama 服务。若下载速度较慢,建议通过配置 https://docker.nju.edu.cn/ 添加加速器 。

restart

将重启策略设为 始终,确保容器崩溃或停止时自动重启,维持服务持续运行。

端口映射

端口映射:将NAS的3000端口映射至容器的8080端口。Web UI可 通过http://NAS_IP:3000访问

数据存储映射以确保数据持久性:

./ollama:/root/.ollama:将NAS本地./ollama目录映射至容器内部/root/.ollama,用于存储Ollama数据。

./open-webui:/app/backend/data:将NAS本地./open-webui目录映射至容器内的/app/backend/data目录,用于存储OpenWebUI后端数据。

注释:

. / 表示 Docker Compose 文件所在的目录。

冒号前的路径是NAS上的存储路径,冒号后的路径是容器内的映射路径。

镜像来源: 使用ghcr.io/open-webui/open-webui:ollama 镜像。该镜像同时集成 OpenWebUI 和 Ollama,无需单独运行 Ollama 服务,系统将自动处理启动与集成。

端口设置:OpenWebUI默认端口为8080,可 通过 ports参数 调整 。此处映射至3000端口,访问地址为 http://NAS_IP:3000。Ollama默认端口为11434,但无需暴露该端口——镜像内部已完成集成处理,OpenWebUI可直接访问Ollama服务。

部署项目

复制配置文件后,点击[部署]按钮。系统将自动拉取镜像并启动容器。

57c4b5132a594001b969a0b03a8602a5-iPCy.webp
fb878d147023414d8dd8f5288db4ca28-mkeA.webp

访问 Open WebUI

访问 Open WebUI 网页界面请按以下步骤操作:

1.在本地网络中打开浏览器访问 http://NAS_IP_address:port_number (例如: http://172.17.70.69:3000)。

d398c2ac71a840f4871df19d53a4bafb-ruTu.webp

2.初次访问时,需通过设置用户名、邮箱和密码创建管理员账户。

d116da6feaeb47729e1710e2c26663cf-vKAB.webp

3.使用新创建的账户登录。

ccdec079c78e402791ddaefd4ef0e2ed-ZdmI.webp

4.登录成功后将进入主界面。

0aa3454749b94570a63e3df0b375a50d-tpQK.webp

处理空白屏幕问题

首次登录Open WebUI时可能出现空白屏幕。这是因系统在后台等待OpenAI模型响应导致的延迟。若不愿等待加载过程,可通过禁用OpenAI API解决此问题。 请注意: 仅在界面首次成功加载后 方可禁用 OpenAI API。

1bbffc41441d426fb1b169e379e22a68-ATva.webp

方法一:首次成功加载Open WebUI界面后,可通过[管理面板] > [设置] > [连接]路径禁用OpenAI API选项。禁用后刷新页面即可解决问题。

7fbc292e23354c95bc4b66c849b2f50e-fsWN.webp

方法二:您也可检查相关日志文件以确认加载过程是否正常。操作步骤如下:

在UGOS Pro中打开Docker应用程序

点击[容器] > 选择Open WebUI容器 > 点击[日志]。

检查日志中是否存在模型加载进度信息(如"get_all_models"或"Loading models")。若日志显示模型正常加载,请等待1-2分钟,页面将自动刷新恢复;若出现错误信息,请参照日志排查问题。

ca442264a6e1487caec4e2c2bd0e46ef-bmzC.webp

下载并使用Deepseek-R1模型

1.登录Open WebUI后 ,在左上角搜索框输入 模型名称(例如: ollama run deepseek-r1:1.5b)。点击搜索结果开始下载。

c5cb12ce3c49428ea536af1145bd76ea-WEcg.webp

2.在新对话框中输入"hello world!"或其他任意问题,即可验证模型运行正常。

8744c6da56174ebfa9bd64c688a1f735-sGKU.webp

重要提示:部署大型模型将显著增加NAS的CPU和内存负载,建议避免在高负载任务期间使用。

DeepSeek-R1各版本的最低硬件要求如下:

您可根据NAS硬件配置选择模型规格。本教程选用15亿参数模型。

23d306659aab45488f61609e2b9e1f22-VJrZ.webp