2025-03-07 17:18:04

deepseek私有化部署怎么操作?deepseek私有化部署操作方法!

DeepSeek 私有化部署操作方法如下:

使用 Ollama 部署 DeepSeek-R1

  1. 准备工作:配备 NVIDIA 显卡的电脑,显存≥8GB,建议预留 20GB 磁盘空间,确保可访问https://ollama.com/

  2. 安装 Ollama:访问 Ollama 官网,点击「Download」,选择 Windows 版本。双击安装包,保持默认选项,点击「Install」。右键点击 Windows 开始菜单,选择「终端(管理员)」,输入 “ollama --version” 验证安装。

  3. 模型部署:在 D 盘创建专用文件夹 “AI_Models\deepseek-R1”。在该文件夹内创建 “Modelfile” 文件,内容为 “FROM deepseek-ai/deepseek-R1:latest PARAMETER temperature 0.7 PARAMETER num_ctx 4096”。在文件夹内按住 Shift + 鼠标右键,选择「在此处打开 Powershell 窗口」,输入 “ollama create deepseek-r1 -f.\Modelfile”。

  4. 可视化交互:安装 Docker 并完成基础配置,在「终端」执行 “docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main”,在浏览器输入 “http://localhost:3000” 访问控制台。

使用 KubeRay 部署 DeepSeek-R1

  1. 准备工作:开通账号,确保弹性容器集群资源满足 GPU 为 H800*16、CPU 为 128 核、内存为 512GB、磁盘为 1TB 的配置要求,开通弹性容器集群,准备配置文件和模型。

  2. KubeRay 集群部署:安装 KubeRay-Opertor,执行 “helm install kuberay-operator -n deepseek --version 1.2.2.”。启动集群,执行 “kubectl apply -f ray-cluster.yaml”。进行安装访问配置。

  3. 部署 DeepSeek-R1:部署模型并访问模型。

使用华为 ModelEngine 部署

  1. 登录转换:登录 ModelEngine 模型管理页面,上传 DeepSeek-R1 FP8 权重,转换为 BF16 精度模型权重。

  2. 下发部署:在模型服务页面,选择 BF16 精度的模型权重版本,下发推理服务,启动任务部署。

  3. 启动服务:使用 MindIE 推理框架启动 DeepSeek-R1 推理服务,支持 OpenAI API 调用风格的推理服务接口和访问方式。

2025.10
星期三
01
美国将对木材产品征10%、橱柜家具征25%关税
印尼终止电动汽车进口免税政策,2026年起实施“1:1生产承诺”强制本土化
亚马逊强制推行FBA捐赠计划:卖家不可退出,不可售库存将自动捐赠
TikTok遭印尼反垄断机构罚款150亿印尼盾
查看更多
免费下载
免费下载
小程序
小程序
小程序
交流群
交流群
交流群
回顶部
企业跨境出海综合服务平台
关于出海网
关于我们加入我们
交流合作
友情链接
关注我们
出海网公众号
出海网小程序
出海网视频号
出海网社群
版权归出海网跨境电商(广州)有限公司所有 粤ICP备2021037671号-5