QQ个性网:专注于分享免费的QQ个性内容

关于我们| 网站公告| 广告服务| 联系我们| 网站地图

搜索
AI 盘古大模型 智谱AI SenseNova 混元大模型 chatgpt 星火大模型 deepseek 安第斯大模型 文心一言 豆包 huggingface 通义千问 cursor MiLM claude 大模型 PaddlePaddle 360智脑

无需联网!三步走轻松部署本地版DeepSeek

日期:2025/04/05 08:31来源:未知 人气:52

导读:审计人的痛点尽管DeepSeek功能强大,但它需要联网才能使用,这给审计人员带来了诸多不便。同时,内部资料和数据也无法传输到网络或App版本的DeepSeek中,这无疑增加了审计工作的难度。尽管有许多教程介绍如何通过ollama进行本地部署DeepSeek,但这些教程往往过于技术化,涉及命令行窗口和系统环境变量设置,这让许多非专业人士望而却步。选择本地部署,使用三个工具软件(o......

审计人的痛点

尽管DeepSeek功能强大,但它需要联网才能使用,这给审计人员带来了诸多不便。同时,内部资料和数据也无法传输到网络或App版本的DeepSeek中,这无疑增加了审计工作的难度。

尽管有许多教程介绍如何通过ollama进行本地部署DeepSeek,但这些教程往往过于技术化,涉及命令行窗口和系统环境变量设置,这让许多非专业人士望而却步。

选择本地部署,使用三个工具软件(ollama + ollama master + Cherry Studio),只需简单三步,无需复杂代码和命令行操作,即可轻松打造一个离线本地版DeepSeek。这个版本不仅离线可用,确保了隐私保护,还无需API调用费,并可深度对接内部系统,满足审计人员的各种需求。

软硬件需求

本教程考虑到了大多数审计人的办公环境,因此推荐使用Windows10及以上操作系统。此外,运行DeepSeek生成的Python代码需要另行安装Python运行环境。

对于配置需求,我们提供了不同级别的建议以满足不同需求。从基础的入门配置到高级配置,您可以根据实际情况选择适合您的方案。

只需三步,轻松上手

通过ollama进行本地部署DeepSeek的过程非常简单。您只需按照以下三个步骤操作:首先安装Ollama,这是一款专为技术小白设计的本地大模型部署工具;其次,启动Ollama并加载DeepSeek模型;最后,通过简单操作即可开始使用DeepSeek进行审计工作。整个过程无需复杂代码和命令行操作,轻松上手。 1️⃣ 下载安装包

前往Ollama官方网站(https://ollama.com/),选择适合Windows系统的版本进行下载 2️⃣ 轻松安装

下载完成后,双击运行 OllamaSetup.exe 进行安装。安装完成后,系统右下角任务栏将出现 Ollama 的图标,表示安装成功。

步骤二:下载所需模型

在完成安装后,您需要下载与 Ollama 兼容的模型。这些模型通常是预训练的深度学习模型,能够为 Ollama 提供必要的计算和推理能力。请根据您的需求选择适当的模型进行下载。 1️⃣ 下载Ollama Master工具

为了进一步提升Ollama的使用体验,我们开发了Ollama Master工具,它对Ollama的命令行进行了优化,使得用户可以通过鼠标进行操作,极大降低了使用门槛。此外,该工具还提供了详细的介绍和使用说明。

下载地址:https://pan.baidu.com/s/12YbwXbNVQEiCF0wlL7cMRw 提取码:n3e4

下载完成后,无需安装,只需解压OllamaMaster-Win20250221.zip文件即可开始使用。 2️⃣ 下载DeepSeek

在Ollama Master工具中,您可以轻松下载所需的DeepSeek版本。只需打开工具,进入模型下载页面,然后选择您需要的deepseek-r1版本进行下载。 若您希望尝试使用DeepSeek而无需高性能显卡,可以选择下载1.5b版本。对于配备普通显卡的电脑,推荐选择7b版本。若显卡性能优越,则14b版本将能更好地发挥DeepSeek的性能。此外,若您计划使用CherryStudio的本地知识库功能,还需额外下载bge嵌入模型。 请留意OllamaMaster的指引。 出现以下黑框表示正在下载,请勿关闭。 我当前下载的是最小的1.5b模型,其文件大小为1.1G。 下载完成后,您可以关闭相关窗口。 点击“模型列表”,若能见到您刚刚下载的模型,那便意味着下载工作已成功完成。至此,您已顺利完成了deepseek的本地部署。 3️⃣ 调整模型存储路径

通常,模型会预设安装在C盘。但若C盘空间不足,您可借助Ollama Master工具来更改存储位置后再进行下载。(此步骤并非强制执行)

具体操作如下:进入“模型路径”设置,选择您希望存放模型的文件夹,并确认路径设置。请留意,修改完成后需重启电脑以使新路径生效。 步骤三:利用图形界面操作DeepSeek 在完成模型存储路径的调整后,您可以通过图形界面进一步操作DeepSeek。 1️⃣ 安装工具:Cherry Studio

Cherry Studio 是一款适用于Windows、macOS和Linux系统的跨平台桌面客户端,未来还将进一步拓展至移动端。它不仅集成了诸如OpenAI、Gemini、Anthropic等大型语言模型,还支持本地模型的运行。用户通过这款软件,可以轻松切换不同的AI模型,实现多模型对话、文档处理以及内容生成等多样化功能。想要了解更多或进行安装,请访问官方网站https://cherry-ai.com/并下载使用。 2️⃣ 配置模型

在Cherry Studio中,点击左下角齿轮图标“设置”,进入“模型服务”选项,选择Ollama进行管理。 在Cherry Studio的“模型服务”中,我们可以看到已经下载好的DeepSeek模型。要使用该模型,只需点击绿色加号进行添加。 在“模型服务”的顶部,我们可以看到一个默认助手,通过它可以选择我们想要使用的模型。 接下来,你可以尽情与DeepSeek进行交流互动! 此外,借助Cherry Studio的强大功能,你还可以构建属于自己的本地知识库。但在此过程中,可能会遇到诸多挑战,这也为后续探讨提供了丰富的素材。

在提及Ollama的使用时,安全性问题显得尤为重要。尽管Ollama主要在本地处理数据,但用户仍需对本地设备的安全保持警惕。例如,确保电脑安全至关重要,定期更新系统补丁、杀毒软件和防火墙等安全措施是必不可少的。同时,由于Ollama尚存在部分未修补的漏洞,用户应采取额外安全措施,如使用代理或Web应用防火墙来保护暴露在互联网上的端点。综上所述,虽然Ollama设计为本地运行且不会主动泄露用户信息,但用户仍需高度重视并保障本地设备的安全。

关于我们|网站公告|广告服务|联系我们| 网站地图

Copyright © 2002-2023 某某QQ个性网 版权所有 | 备案号:粤ICP备xxxxxxxx号

声明: 本站非腾讯QQ官方网站 所有软件和文章来自互联网 如有异议 请与本站联系 本站为非赢利性网站 不接受任何赞助和广告