Ollama+CodeGeeX+VScode的本地LLM部署方案
Ollama+CodeGeeX+VScode的本地LLM部署方案
前言
Windows下实现全离线状态部署LLM用以辅助代码编写
环境需求
Window10及以上
Ollama(版本>0.2)
VScode
CodeGeeX插件
战前准备
在进行离线部署前,你需要首先下载好需要的工具及软件
Ollama下载及安装
进入官方网站下载安装包跟随默认安装即可,给出下载直链https://ollama.com/download/OllamaSetup.exe
双击exe文件跟随默认设置安装即可
先保留安装包不要删除
大语言模型下载
LLM的选择有很多,根据自身硬件实力选择即可,参考我的轻薄本,使用的是codegeex4:9b-all-q2_K
这么一款模型
在安装完成Ollama之后,在命令行中执行ollama run codegeex4:9b-all-q2_K
即可开始下载,默认下载模型的位置在C:\Users\你的用户名\.ollama\models
目录下,当然,你可以通过OLLAMA_MODELS
环境变量来修改模型保存位置
如果你不想使用这一款大模型,可以在Ollama官网中自行挑选其他模型
将下载好的模型复制(或剪切)出来备用
VScode下载
下载链接https://code.visualstudio.com/docs/?dv=win64user
CodeGeeX插件下载
在在线状态下,我们可以直接在扩展商店中搜索CodeGeeX
即可一键安装
对于离线状态,我们就只能从外部下载好插件后进行进行离线安装
通过https://marketplace.visualstudio.com/items?itemName=aminer.codegeex进入拓展商店下载拓展包
离线部署
接下来的所有操作均可在断网环境下运行
首先是安装好Ollama
接着将之前下载好的大模型文件放入C:\Users\你的用户名\.ollama\model
目录中,使用ollama list
命令检验是否读取到了模型文件
同时设置好环境变量setx OLLAMA "*" /M
(需要管理员权限)
然后安装VScode
再执行code --install-extension <CodeGeeX插件的路径>
命令来安装插件
再接下来进行配置
如图,键入http://127.0.0.1:11434/v1/chat/completions
和codegeex4:9b-all-q2_K
最后点击连接,出现连接成功标识即可
至此已完成配置过程
懒人部署包
配合懒人包一起食用更佳~
该脚本需要以管理员权限执行
此前曾使用过ollama的不建议直接运行懒人脚本,这可能会使你原先下载的模型丢失
在懒人包目录下打开命令行,按顺序依次执行命令即可
1 | :: 安装 ollama |
最后在手动在VScode中按照上述离线部署的过程配置一下即可
懒人包下载地址:https://www.alipan.com/s/cSGkaLH4Jyc