随着deepseek-r1模型开源,免费,性能强劲,可以部署到本地,不受网络限制,非常的诱人。许多人都开始各种奇特的想法来玩转deepseek。
本次小栈也将deepseek本地部署了,让开发软件PyCharm接入本地的deepseek,通过开发者的思维,让其自动生成Python代码,让开发的过程变的更方便。
在 PyCharm 中对接 deepseek 本地模型并实现自动生成 Python 代码,是一个非常有意义的探索,能够显著提升开发效率。
前期准备
系统环境
windows 10
软件环境
Pycharm (Professional 版)
Python 3.9.16
这两个是需要安装的,
小栈使用的Pycharm (Professional 版)是破解版,功能还是比较完善!
小栈使用的Python 3.9.16,小版本差异不大,可以从官方网上直接下载,也可以直接下载小栈分享的。
能进来看这篇文章的,说明已经有这两个基础软件了,安装过程在这里就不再赘述。
如果这两个软件有需要下载的,在我的公众号后台回复:PyCharm即可获取。
PyCharm接入deepseek
PyCharm插件式接入deepseek,分两步:
1、在本地搭建deepseek服务
2、通过PyCharm下载CodeGPT插件
我们看一下具体操作:
1. 本地搭建deepseek
1、下载Ollama并安装
首先,打开网站
https://ollama.com/
下载:
选择与系统匹配的版本
小栈是windows 10,本次就以此为例
安装:
找到下载的Ollama软件
右击 【以管理员身份运行】
点击【Install】默认安装即可
安装过程完全是自动的,安装完成后,在cmd命令窗口输入ollama list命令
由于电脑并没有安装过其他的,刚安装ollama现在执行这条命令应该是空的,这个已经表明安装成功!
2、下载DeepSeek-r1模型
我们先看以下deepseek的版本,打开Ollama官网,点击左上角菜单【Models】
DeepSeek-r1 目前一共有7个不同版本,随着尺寸参数变大对电脑要求也会变高,电脑没有大显存GPU的朋友,推荐安装1.5b的。
这版尺寸,即使是无GPU的普通电脑也能流畅运行。
我们进行deepseek详细版本页面,复制命令
打开电脑cmd命令窗口
输入安装命令:
ollama pull deepseek-r1:1.5b
大约等10分钟左右的时间
出现success,则已经安装完成
3、使用及验证
安装完成后,我们来使用,验证一下效果
在cmd命令窗口输入
ollama run deepseek-r1:1.5b
出现 Send a message,这个就是输入问题的地方
我们可以直接在这里提问
比如提问:“学习编程方面,我们该如何学习,请列出5个学习的方法”
OK,可以看到本地模型部署可以使用!
2. CodeGPT插件安装
安装CodeGPT插件:
打开PyCharm,File->Settings->Plugins,搜索“CodeGPT”,点击安装。
点击【Install】时,提示Third-Party Plugins Notice,【Accept】即可
安装完成后,点击【OK】,退出Settings界面
最后需要重新启动Pycharm(可能有的环境不需要重启,但建议最好是重启一下)
重启完成后,在编辑器左侧会出现CodeGPT图标
CodeGPT图标可以移动位置的,小编默认是在左上侧,如果有朋友不习惯的,可以右击图标,自定义位置。
CodeGPT插件配置
在CodeGPT界面,首先需要登录一下,小编是用的Github号直接关联登录的(也可以Google,根据自己的情况而定)
登录成功后,就可以进行配置本地模型了
点击【Claude-3.5-Sonnet】
选择【Local LLMs】,就可以看到本地下载的deepseek-r1:1.5b模型了,由于是本地已经部署好了,所以这里默认显示出来了!
接着点击【deepseek-r1:1.5b】
就可以进入以deepseek-r1:1.5b模型的提问对话界面了
很简单,到这里PyCharm已经成功接入本地deepseek模型,接下来我们就可以使用它了!
PyCharm中deepseek的使用
我们从编写指令 和 代码调试,了解如何使用。
1. 编写指令
请编写一个函数,传参是一个列表
1、如果列表长度小于等于3,那么就直接存入另一个列表中,返回格式[[1,2,3]];
2、如果列表长度大于3,那么就将列表中每三个元素存入一个列表,最终存入一个大列表中,返回格式[[1,2,3],[4,5,6]]
将指令写入,回车,等待回复
如下:
本地deepseek回复,也是比较详细的,这里面除了自动生成的代码、逻辑思路、解释,还有 测试案例,让研发过程更加方便和快速了!
小编只截取代码的部分,看一下效果
是不是很方便?结合前期的 API 形式的,这里又多了一个辅助工具
2. 代码调试
我们将代码导入到py文件中,点击【Insert code】即可,相当方便!
我们将函数和测试案例都导入到py文件中,验证一下结果
def process_list(lst):
if len(lst) <= 3:
return [[1, 2, 3]]
else:
result = []
for i in range(0, len(lst), 3):
sub_lst = lst[i:i+3]
result.append(sub_lst)
return result
# 测试用例1:列表长度为3
print(process_list([1, 2, 3])) # 输出 [[1, 2, 3]]
# 测试用例2:列表长度大于3
lst = [1, 2, 3, 4, 5, 6]
print(process_list(lst)) # 输出 [[1, 2, 3], [4, 5, 6]]
执行,结果如下:
这个结果与我们期望的需求一致!
总结
deepseek模型是本地部署的,不会产生额外的费用,PyCharm通过CodeGPT插件接入本地模型,继上次Continue插件后,又算一个无缝结合,配置很简单。
这个就是通过PyCharm的Continue插件,API_Key的方式,有兴趣的可以了解一下。