QQ个性网:专注于分享免费的QQ个性内容

关于我们| 网站公告| 广告服务| 联系我们| 网站地图

搜索
AI 盘古大模型 智谱AI SenseNova 混元大模型 chatgpt 星火大模型 deepseek 安第斯大模型 文心一言 豆包 huggingface 通义千问 cursor MiLM claude 大模型 PaddlePaddle 360智脑

国家级平台上线DeepSeek大模型,本地化极简部署指南来了

日期:2025/04/06 17:34来源:未知 人气:56

导读:近日,DeepSeek大模型正式上线国家级平台,标志着我国在人工智能领域迈出了重要一步。DeepSeek大模型上线国家级平台人民网消息显示,目前DeepSeek-R1、V3、Coder等系列模型已登陆国家超算互联网平台,用户无需下载到本地部署,即可在线完成DeepSeek系列模型的推理、部署及定制化训练与开发。其中,DeepSeek-R1模型提供一键推理服务,无需下载本地;还可......

近日,DeepSeek大模型正式上线国家级平台,标志着我国在人工智能领域迈出了重要一步。

DeepSeek大模型上线国家级平台

人民网消息显示,目前DeepSeek-R1、V3、Coder等系列模型已登陆国家超算互联网平台,用户无需下载到本地部署,即可在线完成DeepSeek系列模型的推理、部署及定制化训练与开发。其中,DeepSeek-R1模型提供一键推理服务,无需下载本地;还可根据私有化需求,引入专有数据,对模型进行定制化训练和开发。此次上线不仅展示了DeepSeek在技术上的领先优势,也为广大用户提供了更加便捷的AI服务。

新华社、环球网等媒体点评称,DeepSeek 模型依托国家超算互联网平台 “普惠易用、丰富好用” 的算力服务,能够为海量中国企业与用户提供高性能、高性价比、高可信的选择。当智能算力不足时,国家超算互联网平台所提供的丰富异构算力资源和跨域调度算力功能,能够确保推理任务的流畅运行,为大规模 AI 应用提供可持续的算力保障。

国家超算互联网平台:国家级的创新之举

国家超算互联网平台作为科技部 2023 年启动建设的国家级项目,承载着促进超算算力一体化运营、打造国家算力底座的重要使命。为推进这一宏大工程,科技部成立了工作推进组、总体专家组以及超算互联网联合体,由时任科技部副部长相里斌担任工作推进组组长,中科院院士钱德沛担任总体专家组组长。

钱德沛院士指出,国家超算互联网平台以互联网思维构建国家超算基础设施,打破了传统算力资源分散的局面,实现了资源的深度整合。通过该平台,用户可便捷获取所需资源,避免了重复的技术性开发,降低了创新门槛,提高了科研与产业创新效率。在国际上,尚无类似平台的先例,中国打造国家超算互联网平台,彰显了在算力领域敢为人先的创新勇气与探索精神。

该平台还是全国算力资源的统筹调度中心。在算力被视为新质 “能源” 的今天,算力水平已成为衡量国家科技与经济实力的关键指标。国家超算互联网平台官网显示,平台致力于连接算力产业上下游及供需双方,实现超算、智算等全国算力资源的统一调度与高效配置,这是打造国家算力底座的关键所在。

自 2024 年 4 月正式上线以来,截至今年 1 月,平台已连接 14 个省份的 20 多家超算和智算中心,入驻 300 多家算力服务商,展现出强大的资源汇聚与整合能力。

DeepSeek-R1 本地化极简部署简明指南(Ollama 可视化方案)

【准备工作】

硬件要求:配备NVIDIA显卡的电脑(显存≥8GB),建议预留20GB磁盘空间

网络准备:确保可访问 https://ollama.com/

01Ollama 安装(以 Windows 为例)

步骤1:下载安装包

访问 Ollama官网 → 点击「Download」→ 选择Windows版本

步骤2:安装ollama

双击安装包 → 保持默认选项 → 点击「Install」出现「Installation complete」提示即成功

步骤3:验证安装

右键点击Windows开始菜单 ,选择「终端(管理员)」,在「终端」界面输入:

ollama --version

这时[版本信息] 应显示类似“ollama version 0.1.25”这样的版本号

以上操作也可以采用在键盘上按下Win键+R,在调出“运行”中输入“cmd”打开「终端」后输入指令:powershellollama --version

02模型部署流程

步骤1:获取模型文件在D盘创建专用文件夹:AI_Models\deepseek-R1也可在「终端」输入: powershellmkdir D:\AI_Models\deepseek-R1

步骤2:编写配置文件在上面所建的“deepseek-R1”文件夹内通过Windows的“记事本”编写并创建“Modelfile”文件,内容如下: FROM deepseek-ai/deepseek-R1:latestPARAMETER temperature 0.7 # 控制生成随机性PARAMETER num_ctx 4096 # 支持4K上下文

步骤3:执行部署命令在文件夹内按住Shift+鼠标右键,在弹出的选单中选择「在此处打开Powershell窗口」→ 输入: ollama create deepseek-r1 -f .\Modelfile观察终端显示的下载进度条(约需15-30分钟)

03可视化交互(推荐使用 Open WebUI)

步骤1:安装Docker访问Docker官网Docker Desktop → 下载安装 → 完成基础配置

步骤2:启动Web服务在「终端」执行: powershelldocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

步骤3:访问控制台在浏览器界面输入地址 http://localhost:3000,找到「注册账号」完成注册,选择「DeepSeek-R1」模型 在对话框中输入测试问题:“如何理解DeepSeek-R1的推理过程” ,查看生成结果。

04配置优化

【方案1:量化加速】 修改“Modelfile”添加量化参数: QUANTIZATION q4_0 # 启用4bit量化(显存需求降至6GB)

【方案2:多GPU分配】 在启动时指定显卡: powershellOLLAMA_NUM_GPU=2 ollama run deepseek-r1 # 使用前两块GPU

05常见问题诊断

症状1:生成速度慢解决方式: 打开[GPU监控] → 检查显存占用情况 → [调整量化等级] → [关闭其他GPU应用]

症状2:中文输出乱码解决方式: 在WebUI → Settings → 将「Default Language」设置为「中文」 部署后建议首次运行时打开任务管理器观察GPU负载,正常情况 GPU利用率应波动在60-80%,显存占用稳定在7-8GB。

关于我们|网站公告|广告服务|联系我们| 网站地图

Copyright © 2002-2023 某某QQ个性网 版权所有 | 备案号:粤ICP备xxxxxxxx号

声明: 本站非腾讯QQ官方网站 所有软件和文章来自互联网 如有异议 请与本站联系 本站为非赢利性网站 不接受任何赞助和广告