日期:2025/04/05 08:30来源:未知 人气:53
这个 DeepSeek 这段时间特别火,但是它动不动就服务器繁忙,请稍后再试。咱们要本地部署一个。
传送门在这里——>Ollama。(单机此处就可以跳转!)
先打开 Ollama 的官网,下载客户端,我是 Windows 系统,就直接下载 Windows 版本,软件直接下一步下一步安装就行。
先用用qq邮箱注册一个账号。
登录进去后,然后在顶部搜索deepseek-R1。
根据电脑显卡配置,进行安装。安装好后,点右下角的弹窗会弹出一个命令行,在这里输入ollama 回车,如果出现相应界面就证明安装完成 。
然后最重要的就是选择模型,我的是二十四级兵线,可以装三十二 b 的模型。在这里输入指定命令回车,如果大家的显卡显存是十二 gb 到十六 gb 选十四 b 模型,八 gb 推荐七 b 或者八 b 的模型。
我发现 Ollama 的模型下到最后越来越慢,解决办法是先按 ctrl 加 c 把它停止掉,然后再输一遍上面的命令重新下载,尝试两次后下载速度就恢复正常了。 下载完成之后在命令行里输入 ollama list 就可以看到下载后的模型了,然后输入 ollama run 加模型名称,回车就可以运行这个模型了。如果想要界面更简洁一点可以下一个浏览器的插件,选我们刚才装好这个三十二 b 模型就可以正常对话了。
整体来说四零九零 d 本地部署三十二 b 的模型还是很流畅的,但是毕竟参数量比起满写版还有差距,有些问题还是会说错。这样这个本地部署就做完了,想问啥就问啥,不用太担心服务器繁忙了。
当然缺点也是有的。
网友们对 DeepSeek 本地部署看法不一。有人吐槽本地部署太吃配置,普通版达不到官网效果,还推荐放弃麻烦的 ollama(还要装图形界面),改用 LM Studio,没代理的话去网上找教程把模型下载地址改为国内镜像就行。
也有人疑惑本地部署后能否联网搜答案,得到的回复是可以,自己搜教程就行 ,不过还被打趣就算开了本地部署也达不到官网效果,还询问对方能部署几 b 呢。还有人提及部署 7b 相关内容。另外,有人看着 4090 显卡感慨 “有的人一出生就在罗马”,满是羡慕。
一位河北网友询问本地部署的 DeepSeek 能否深度思考和联网,若可以便打算去部署一个。对此,不同网友观点各异。
一位北京网友称 “不怕慢 70b 也能上,内存补 40G ”,似在分享高参数量模型的部署经验。江苏网友则简单地纠正 “是显存”,指出表述上的问题。
另一位北京网友语气颇为激动,反驳道 “显啥存啊!就是内存。不是你没用过 70b,就是你是土豪。我用不起几十 G 的显存显卡,内存共享补显存就是慢点 ”,表达了对内存与显存概念的理解以及对高显存配置的看法。
还有一位北京网友解释说 “内存其实可以和显存共享的。相当于调用,虚拟显存。你想想如果是集显电脑,没显存还没法用了吗? ”,试图说明内存和显存共享的原理。