登录
转载

被Deepseek卡到崩溃?3步本地部署,告别网络焦虑!

发布于 2025-02-11 阅读 241
  • 人工智能
转载

最近,Deepseek可太火了,用的人越来越多,问题也接踵而至。不管是手机版还是网页版,经常碰上服务器繁忙,压根用不了。特别是在和它反复沟通优化一个问题时,突然被中断,那感觉,别提多糟心了!
image.png
想要彻底解决这个麻烦,本地化部署势在必行。今天我就手把手教大家,通过3个简单步骤,在本地部署Deepseek大模型,以后就算没网也能畅快使用!操作超简单,小白跟着做也能轻松上手。大家先点赞收藏,以防后面找不到啦!

本地部署硬件得达标
Deepseek本地部署的硬件要求,会根据模型大小有所不同。下面是详细的硬件要求表格:
image.png
从表格能看出,对个人用户来说,DeepSeek-R1-7B模型是最适配的。它既能满足咱们日常大多数需求,硬件条件也基本在大部分电脑的承受范围内。今天我就主要带大家部署这个模型。

第一步:把Ollama请回家
Ollama是个超厉害的开源本地化大模型部署工具,有了它,安装、运行和管理大语言模型(LLM)都变得超简单。
image.png
打开浏览器,访问Ollama官网:https://ollama.com/ ,根据自己的操作系统,下载对应的安装包。我用的是Windows系统,要是大家下载不了或者速度太慢,我准备了安装包,链接放到文末了,大家自行下载就行。
image.png
下载好后,双击安装包,按照提示一步步完成安装。安装结束,咱们来检查一下是否安装成功。同时按下win+R键,调出运行窗口,输入“cmd”后回车,打开cmd命令窗口。在里面输入“ollama”,再回车,如果出现的界面和下图一样,那就说明Ollama成功安装啦!
image.png
完成Ollama 下载后我们打开cmd命令窗口(快捷键win+R,输入“cmd”按回车)输入ollama 按回车,如果显示和下图一样表示安装成功
image.png
第二步:把DeepSeek模型抱回家
回到Ollama网站,点击右上角的“Models”按钮。
在搜索栏输入“DeepSeek”进行搜索,找到DeepSeek-r1,咱们这次要的是7b模型,直接点进去,然后点击右边的复制按钮,把下载命令复制下来。
image.png
回到刚才的cmd界面,把复制的代码粘贴进去,再敲一下回车,接下来就耐心等待模型下载吧。当看到“success”字样,就代表下载完成咯!
image.png
image.png
image.png
第三步:想要可视化界面?请chatboxai来助力
chatboxai是个超实用的大模型可视化工具,有了它,就能创建一个直接和大模型对话的窗口。

下载chatbox,链接同样在文末,大家自行下载就可以 ,下载并完成安装。
image.png
安装好后,按照下图进行操作,添加模型并完成配置。
image.png
image.png
image.png
到这儿,本地部署就大功告成啦!大家可以尽情享受Deepseek带来的便捷,再也不用担心网络和服务器的问题!

好啦,以上就是DeepSeek本地部署的全部流程,是不是超级简单?大家赶紧动手试试。要是过程中有任何问题,欢迎随时留言。如果这篇教程帮到了你,记得点赞+在看,你们的支持就是我持续更新的最大动力!

Ollama和chatbox下载地址:https://tool.nineya.com/s/1ij2vkn00

评论区

king
4粉丝

励志做一条安静的咸鱼,从此走上人生巅峰。

0

0

4

举报