电脑端
DeepSeek简介
DeepSeek是由杭州深思人工智能基础技术研究有限公司(成立于2023年7月17日)研发的推理模型。该模型通过强化学习进行后训练以增强推理能力,尤其擅长数学、编程、自然语言推理等复杂任务。2025年1月20日,DeepSeek正式发布DeepSeek-R1模型并同步开源模型权重。 部署DeepSeek前需先安装Ollama——这款大型语言模型框架堪称AI模型的宿主。若需美观的用户界面,则需额外安装应用程序。本教程将部署OpenWebUI应用程序来运行DeepSeek-R1模型。
OpenWebUI是一款可扩展、功能丰富且用户友好的自托管网页界面,专为完全离线运行设计。它支持多种LLM运行器,包括Ollama及兼容OpenAI的API。更多详情请参阅 OpenWebUI官方文档。
使用Docker Compose部署OpenWebUI容器(集成Ollama)
在UGOS Pro系统上,建议使用项目提供的Docker Compose进行快速容器部署,尤其在同时管理多个容器时。此方法可简化容器部署与管理流程。以下是使用Docker Compose部署OpenWebUI的详细步骤。
访问 Docker 项目界面
在UGOS Pro系统中,打开Docker应用程序,点击[项目] > [创建]启动项目创建向导。
配置 Docker Compose 文件
在项目创建向导中,复制以下适用于 OpenWebUI 的 Docker Compose 配置文件:
services:
open-webui:
container_name: open-webui
image: ghcr.io/open-webui/open-webui:ollama # 镜像名称
# 建议添加加速器 https://docker.nju.edu.cn/
restart: always # 重启策略
ports:
- "3000:8080" # Web服务访问端口
volumes:
- ./ollama:/root/.ollama # 存储ollama相关数据
- ./open-webui:/app/backend/data # 存储Web UI后端数据参数说明
注释:
●. / 表示 Docker Compose 文件所在的目录。
●冒号前的路径是NAS上的存储路径,冒号后的路径是容器内的映射路径。
●镜像来源: 使用ghcr.io/open-webui/open-webui:ollama 镜像。该镜像同时集成 OpenWebUI 和 Ollama,无需单独运行 Ollama 服务,系统将自动处理启动与集成。
●端口设置:OpenWebUI默认端口为8080,可 通过 ports参数 调整 。此处映射至3000端口,访问地址为 http://NAS_IP:3000。Ollama默认端口为11434,但无需暴露该端口——镜像内部已完成集成处理,OpenWebUI可直接访问Ollama服务。
部署项目
复制配置文件后,点击[部署]按钮。系统将自动拉取镜像并启动容器。


访问 Open WebUI
访问 Open WebUI 网页界面请按以下步骤操作:
1.在本地网络中打开浏览器访问 http://NAS_IP_address:port_number (例如: http://172.17.70.69:3000)。

2.初次访问时,需通过设置用户名、邮箱和密码创建管理员账户。

3.使用新创建的账户登录。

4.登录成功后将进入主界面。

处理空白屏幕问题
首次登录Open WebUI时可能出现空白屏幕。这是因系统在后台等待OpenAI模型响应导致的延迟。若不愿等待加载过程,可通过禁用OpenAI API解决此问题。 请注意: 仅在界面首次成功加载后 方可禁用 OpenAI API。

方法一:首次成功加载Open WebUI界面后,可通过[管理面板] > [设置] > [连接]路径禁用OpenAI API选项。禁用后刷新页面即可解决问题。

方法二:您也可检查相关日志文件以确认加载过程是否正常。操作步骤如下:
●在UGOS Pro中打开Docker应用程序
●点击[容器] > 选择Open WebUI容器 > 点击[日志]。
●检查日志中是否存在模型加载进度信息(如"get_all_models"或"Loading models")。若日志显示模型正常加载,请等待1-2分钟,页面将自动刷新恢复;若出现错误信息,请参照日志排查问题。

下载并使用Deepseek-R1模型
1.登录Open WebUI后 ,在左上角搜索框输入 模型名称(例如: ollama run deepseek-r1:1.5b)。点击搜索结果开始下载。

2.在新对话框中输入"hello world!"或其他任意问题,即可验证模型运行正常。

重要提示:部署大型模型将显著增加NAS的CPU和内存负载,建议避免在高负载任务期间使用。
DeepSeek-R1各版本的最低硬件要求如下:
您可根据NAS硬件配置选择模型规格。本教程选用15亿参数模型。

在绿联 NAS 本地部署DeepSeek-R1大型语言模型的教程
https://www.zzssp.com/archives/DeepSeek-R1
评论