王剑编程网

分享专业编程知识与实战技巧

PyCharm中对接deepseek本地模型,自动生成Python代码(新版)

随着deepseek-r1模型开源,免费,性能强劲,可以部署到本地,不受网络限制,非常的诱人。许多人都开始各种奇特的想法来玩转deepseek。

本次小栈也将deepseek本地部署了,让开发软件PyCharm接入本地的deepseek,通过开发者的思维,让其自动生成Python代码,让开发的过程变的更方便。



在 PyCharm 中对接 deepseek 本地模型并实现自动生成 Python 代码,是一个非常有意义的探索,能够显著提升开发效率。


前期准备


系统环境

windows 10


软件环境

Pycharm (Professional 版)

Python 3.9.16

这两个是需要安装的,

小栈使用的Pycharm (Professional 版)是破解版,功能还是比较完善!

小栈使用的Python 3.9.16,小版本差异不大,可以从官方网上直接下载,也可以直接下载小栈分享的。

能进来看这篇文章的,说明已经有这两个基础软件了,安装过程在这里就不再赘述。

如果这两个软件有需要下载的,在我的公众号后台回复:PyCharm即可获取。


PyCharm接入deepseek


PyCharm插件式接入deepseek,分两步:

1、在本地搭建deepseek服务

2、通过PyCharm下载CodeGPT插件

我们看一下具体操作:


1. 本地搭建deepseek


1、下载Ollama并安装

首先,打开网站

https://ollama.com/


下载:


选择与系统匹配的版本

小栈是windows 10,本次就以此为例


安装:


找到下载的Ollama软件


右击 【以管理员身份运行】

点击【Install】默认安装即可



安装过程完全是自动的,安装完成后,在cmd命令窗口输入ollama list命令


由于电脑并没有安装过其他的,刚安装ollama现在执行这条命令应该是空的,这个已经表明安装成功!




2、下载DeepSeek-r1模型

我们先看以下deepseek的版本,打开Ollama官网,点击左上角菜单【Models】


DeepSeek-r1 目前一共有7个不同版本,随着尺寸参数变大对电脑要求也会变高,电脑没有大显存GPU的朋友,推荐安装1.5b的。

这版尺寸,即使是无GPU的普通电脑也能流畅运行。

我们进行deepseek详细版本页面,复制命令


打开电脑cmd命令窗口

输入安装命令:

ollama pull deepseek-r1:1.5b

大约等10分钟左右的时间

出现success,则已经安装完成



3、使用及验证

安装完成后,我们来使用,验证一下效果

在cmd命令窗口输入


ollama run deepseek-r1:1.5b

出现 Send a message,这个就是输入问题的地方

我们可以直接在这里提问

比如提问:“学习编程方面,我们该如何学习,请列出5个学习的方法”

OK,可以看到本地模型部署可以使用!


2. CodeGPT插件安装

安装CodeGPT插件:

打开PyCharm,File->Settings->Plugins,搜索“CodeGPT”,点击安装。

点击【Install】时,提示Third-Party Plugins Notice,【Accept】即可

安装完成后,点击【OK】,退出Settings界面

最后需要重新启动Pycharm(可能有的环境不需要重启,但建议最好是重启一下)

重启完成后,在编辑器左侧会出现CodeGPT图标

CodeGPT图标可以移动位置的,小编默认是在左上侧,如果有朋友不习惯的,可以右击图标,自定义位置。




CodeGPT插件配置

在CodeGPT界面,首先需要登录一下,小编是用的Github号直接关联登录的(也可以Google,根据自己的情况而定)

登录成功后,就可以进行配置本地模型了

点击【Claude-3.5-Sonnet】

选择【Local LLMs】,就可以看到本地下载的deepseek-r1:1.5b模型了,由于是本地已经部署好了,所以这里默认显示出来了!

接着点击【deepseek-r1:1.5b】

就可以进入以deepseek-r1:1.5b模型的提问对话界面了

很简单,到这里PyCharm已经成功接入本地deepseek模型,接下来我们就可以使用它了!



PyCharm中deepseek的使用


我们从编写指令 和 代码调试,了解如何使用。

1. 编写指令

请编写一个函数,传参是一个列表


1、如果列表长度小于等于3,那么就直接存入另一个列表中,返回格式[[1,2,3]];


2、如果列表长度大于3,那么就将列表中每三个元素存入一个列表,最终存入一个大列表中,返回格式[[1,2,3],[4,5,6]]

将指令写入,回车,等待回复

如下:

本地deepseek回复,也是比较详细的,这里面除了自动生成的代码、逻辑思路、解释,还有 测试案例,让研发过程更加方便和快速了!

小编只截取代码的部分,看一下效果

是不是很方便?结合前期的 API 形式的,这里又多了一个辅助工具


2. 代码调试

我们将代码导入到py文件中,点击【Insert code】即可,相当方便!

我们将函数和测试案例都导入到py文件中,验证一下结果

def process_list(lst):
    if len(lst) <= 3:
        return [[1, 2, 3]]
    else:
        result = []
        for i in range(0, len(lst), 3):
            sub_lst = lst[i:i+3]
            result.append(sub_lst)
        return result




# 测试用例1:列表长度为3
print(process_list([1, 2, 3]))  # 输出 [[1, 2, 3]]


# 测试用例2:列表长度大于3
lst = [1, 2, 3, 4, 5, 6]
print(process_list(lst))       # 输出 [[1, 2, 3], [4, 5, 6]]

执行,结果如下:

这个结果与我们期望的需求一致!


总结


deepseek模型是本地部署的,不会产生额外的费用,PyCharm通过CodeGPT插件接入本地模型,继上次Continue插件后,又算一个无缝结合,配置很简单。


这个就是通过PyCharm的Continue插件,API_Key的方式,有兴趣的可以了解一下。

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言