DeepSeek R1 本地部署UI面板+本地API调用实用教程 完全免费 可离线使用

【YouTube频道】 | 【Telegram频道】 | 【GitHub仓库】
《部署教程说明》

DeepSeek R1 本地部署open-webui、Dify面板+本地API调用实用教程+免费域名外网访问,实现自己本地部署并页面访问或外网访问可分享接口或页面给任务人使用 完全免费 可离线使用

一、准备工作

注册地址
👉 点击进入官网注册

本地部署 工具Ollama
一个免费使用、本地运行、具有隐私意识的聊天机器人。无需 GPU 或互联网。
👉 Ollama安装和使用视频教程
👉 Ollama安装 + 网页插件视频教程
👉 点击官网下载Ollama地址
部署命令:
1.5B Qwen DeepSeek R1

1
ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

1
ollama run deepseek-r1:7b

8B Llama DeepSeek R1

1
ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

1
ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

1
ollama run deepseek-r1:32b

70B Llama DeepSeek R1

1
ollama run deepseek-r1:70b

二、硬件配置说明

  1. Windows 配置:
    最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间
    推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD
    高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
  2. Linux 配置:
    最低要求:NVIDIA GTX 1660 6GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间
    推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD
    高性能配置:NVIDIA A100 40GB 或 AMD MI250X 128GB,128GB 内存,200GB NVMe SSD
  3. Mac 配置:
    最低要求:M2 MacBook Air(8GB 内存)
    推荐配置:M2/M3 MacBook Pro(16GB 内存)
    高性能配置:M2 Max/Ultra Mac Studio(64GB 内存)
    可根据下表配置选择使用自己的模型
模型名称 参数量 大小 VRAM (Approx.) 推荐 Mac 配置 推荐 Windows/Linux 配置
deepseek-r1:1.5b 1.5B 1.1 GB ~2 GB M2/M3 MacBook Air (8GB RAM+) NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b 7B 4.7 GB ~5 GB M2/M3/M4 MacBook Pro (16GB RAM+) NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b 8B 4.9 GB ~6 GB M2/M3/M4 MacBook Pro (16GB RAM+) NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b 14B 9.0 GB ~10 GB M2/M3/M4 Pro MacBook Pro (32GB RAM+) NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b 32B 20 GB ~22 GB M2 Max/Ultra Mac Studio NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b 70B 43 GB ~45 GB M2 Ultra Mac Studio NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
模型参数规模 典型用途 CPU 建议 GPU 建议 内存建议 (RAM) 磁盘空间建议 适用场景
deepseek-r1:1.5b(15亿) 小型推理、轻量级任务 4核以上 (Intel i5 / AMD Ryzen 5) 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) 8GB 10GB 以上 SSD 小型 NLP 任务、文本生成、简单分类
deepseek-r1:7b(70亿) 中等推理、通用任务 6核以上 (Intel i7 / AMD Ryzen 7) 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) 16GB 20GB 以上 SSD 中等规模 NLP、对话系统、文本分析
deepseek-r1:14b(140亿) 中大型推理、复杂任务 8核以上 (Intel i9 / AMD Ryzen 9) 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) 32GB 50GB 以上 SSD 复杂 NLP、多轮对话、知识问答
deepseek-r1:32b(320亿) 大型推理、高性能任务 12核以上 (Intel Xeon / AMD Threadripper) 高性能 GPU (如 NVIDIA A100, 40GB 显存) 64GB 100GB 以上 SSD 大规模 NLP、多模态任务、研究用途
deepseek-r1:70b(700亿) 超大规模推理、研究任务 16核以上 (服务器级 CPU) 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) 128GB 200GB 以上 SSD 超大规模模型、研究、企业级应用
deepseek-r1:671b(6710亿) 超大规模训练、企业级任务 服务器级 CPU (如 AMD EPYC / Intel Xeon) 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) 256GB 或更高 1TB 以上 NVMe SSD 超大规模训练、企业级 AI 平台

三、open-webui 安装

👉 Open-WebUI官方地址
👉 Open-WebUI官方文档地址

Docker方式安装

  • 如果您的计算机上有 Ollama,请使用以下命令:
1
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  • 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
1
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
  • 更新 Open 要轻松更新 Open WebUI 容器,请按照以下步骤操作:
  1. 手动 使用Watchtower手动更新你的 Docker 容器:
1
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
  1. 自动 保持你的容器每 5 分钟自动更新一次:
1
docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui

🔧注意:open-webui如果不同,请替换为您的容器名称。

uv方式安装(推荐)运行时管理uv器可确保为 Open WebUI 等应用程序提供无缝的 Python 环境管理。请按照以下步骤开始使用:

  1. 安装uv:
  • macOS/Linux:
1
curl -LsSf https://astral.sh/uv/install.sh | sh
  • Windows:
1
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
  1. 运行 Open WebUI
  • macOS/Linux:
1
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
  • Windows:
1
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve

pip方式安装
Python 3.11 是开发环境。Python 3.12 似乎可以运行,但尚未经过彻底测试。Python 3.13 完全未经测试 —使用时风险自负。

打开终端并运行以下命令:

1
pip install open-webui

安装后,使用以下命令启动服务器:

1
open-webui serve

更新 Open 要更新到最新版本,只需运行:

1
pip install --upgrade open-webui

说明:此方法会安装所有必需的依赖项并启动 Open WebUI,从而实现简单高效的设置。安装后,您可以通过http://localhost:8080访问 Open WebUI 。尽情享受吧!

四、Dify UI安装:

👉 Dify官方地址
👉 Dify官方安装文档

1. 快速启动

在安装 Dify 之前,请确保您的机器满足以下最低系统要求:

  • CPU >= 2 核
  • 内存 >= 4 GiB

启动 Dify 服务器最简单的方式是通过docker compose。在使用以下命令运行 Dify 之前,请确保您的机器上已安装DockerDocker Compose

将 Dify 源代码克隆到本地机器:

1
git clone https://github.com/langgenius/dify.git

启动 Dify

1
2
3
4
cd dify
cd docker
cp .env.example .env
docker compose up -d

2. 访问 Dify

进入管理员初始化页面设置管理员账户:

1
2
3
4
5
# 本地环境
http://localhost/install

# 服务器环境
http://your_server_ip/install

Dify网页界面地址:

1
2
3
4
5
# 本地环境
http://localhost

# 服务器环境
http://your_server_ip

五、外网映射访问

👉 ngrok官方地址
👉 ngrok注册视频教程

➖➖相关视频推荐教程➖➖

[点击观看视频教程]

▶️ 新人YouTube 需要您的支持,请务必订阅频道帮我点赞关注打开小铃铛十分感谢!!!
✅在Fork项目时,请 follow 我的GitHub、给我所有项目一个 Star 星星支持下!你的支持是我不断前进的动力! 💖
解锁更多技能 加入TG群【am_clubs】YouTube频道【@am_clubs】【博客(国内)】【博客(国际)】
✅点击观看教程CLoudflare免费节点 | VPS搭建节点 | 获取免费域名 | 免费VPN | IPTV源 | Mac和Win工具 | AI分享

[点击展开] 赞赏支持 ~🧧 *我非常感谢您的赞赏和支持,它们将极大地激励我继续创新,持续产生有价值的工作。*
  • USDT-TRC20: TWTxUyay6QJN3K4fs4kvJTT8Zfa2mWTwDD
  • TRX-TRC20: TWTxUyay6QJN3K4fs4kvJTT8Zfa2mWTwDD

TRC10/TRC20扫码支付

免责声明:
1、该项目设计和开发仅供学习、研究和安全测试目的。请于下载后 24 小时内删除, 不得用作任何商业用途, 文字、数据及图片均有所属版权, 如转载须注明来源。
2、使用本程序必循遵守部署服务器所在地区的法律、所在国家和用户所在国家的法律法规。对任何人或团体使用该项目时产生的任何后果由使用者承担。
3、作者不对使用该项目可能引起的任何直接或间接损害负责。作者保留随时更新免责声明的权利,且不另行通知。


【银河录像局】 奈飞账号合租,Ai账号多模型国内直连,性价比拉满
🌐点击官网:【nf.video】注册 🎁95折优惠码:amclubs


【红杏云】 中转高速机场,8元220G/每月✅玩游戏首选,解锁ChatGPT、全流媒体(送小火箭)【送自动签到脚本】
🌐点击官网【https://hongxingdl.com】注册 🎁8折优惠码:AM科技


【极速云】 全专线机场 低至8元100G/每月✅全IEPL专线,畅爽晚高峰 解锁ChatGPT、全流媒体(送小火箭)
🌐点击官网【https://极速666.com】注册 🎁8折优惠码:AM888


【69云】 中转高速机场 9.9元400G/每月✅看片秒加载,解锁ChatGPT、全流媒体(送小火箭)【送自动签到脚本】
🌐点击官网【https://69yun69.com】注册