【先说结论:一般用户,如无特殊原因,可用deepseek官方或者第三方的,千问,豆包,混元等都可替代,完全没必要自己部署。】
2025.2.25:deepseek官网api充值已经恢复,错峰时段还有优惠。
纯粹凑热闹本地安装了deepseek,因为机器是AMD的U和AMD的显卡,整体体验并不是很好~
Ollama官网:https://ollama.com/
一、直接【Download】,选择系统对应版本,如果下载速度较慢,可以用迅雷试试。然后一直下一步到安装完毕。
二、Ollama默认安装位置以及后续的大模型数据包,都是在C盘,请务必注意C盘空间。如果C盘空间不够的话,进入Ollama所在的下载目录,更改其默认安装路径,方法如下图:
把E:\MySoftware\Ollma替换为合适的位置即可。
三、增加环境变量:右键我的电脑–>属性–>高级系统设置–>环境变量:
点击 ② 处的新建,注意新建的值为你上面设置好的Ollama模型的位置,我是放在D盘Ollama下面models文件夹下面的,请该在自己合适的位置。
然后双击 ③ 处的Path,然后是④处的新建,此处的位置为上面步骤二自定义的Ollama安装位置。
然后一路确定即可。
四,根据自己的机器性能,选择对应的模型。如下图,下拉框⑤选择模型,⑥复制命令到Ollama目录下的命令行回车慢慢安装即可。
模型选择,建议不要超过电脑内存+显存(专用 GPU 显存)的总和。
网址:https://ollama.com/library/deepseek-r1
安装完毕,即可直接使用。(后续使用,需要命令先行启动 ollama run deepseek-r1:7b,此处7b需要换为你下载对应模型的大小),如图:
如果觉得命令行黑乎乎的不爽的话,可以搭配 【chatbox、Cherry Studio 】等软件使用,安装使用也非常方便,也支持其他大模型,还是很不错的。