DeepSeek-V3本地部署

、大模型从入门到精通

1. ⼤模型基础⼊⻔资料

DeepSeek-V3本地部署

l

l 学习资源:包含视频教程、学习路线图、实战项⽬和电⼦书⾏业报告 l 项⽬案例:包含⽂本分类、信息抽取、⽂本匹配、虚拟试装等实战项⽬ l 基础理论:包含神经⽹络、⼤语⾔模型、提示词⼯程等基础理论视频

2. 内容介绍

DeepSeek-V3本地部署

l ⽅案优势

o 使⽤本地机器资源,不存在调⽤外部API

o 完全免费,是Cursor的最佳平替⽅案

o ⽀持DeepSeek V3模型搭建低成本AI代码编辑器

l 核⼼组件

o VS Code作为代码编辑器

o Ollama作为本地⼤模型服务

o Continue插件作为AI代码助⼿

3. VS Code下载 01:21

DeepSeek-V3本地部署

l

l 下载⽅式

o 通过Google或百度搜索”VS Code”

o 必须下载微软官⽅版本,避免第三⽅修改版

l 注意事项

o 免费开源,⽆需订阅

o ⽀持Windows/macOS/Linux多平台

4. Ollama服务安装 01:43

l 安装流程

o 访问Ollama官⽹下载对应系统版本

o 运⾏下载的安装程序(Windows为.exe⽂件)

o 确保服务正常启动(右下⻆出现Ollama图标)

l 验证⽅法

o 终端输⼊ollama list查看已安装模型

o 输⼊ollama server检查服务状态

5. 模型⽂件选择

DeepSeek-V3本地部署

l

l 模型推荐

o Qwen2.5-coder系列:专为代码任务优化

o ⽀持0.5b到32b不同参数量级

l 选择原则

o 参数量越⼤效果越好(7b>3b>1.5b)

o 需根据显卡显存选择(如24G显存可选14b)

l 下载命令

o ollama run qwen2.5-coder:7b

o ⽀持多版本并⾏安装

6. 配置Continue插件

DeepSeek-V3本地部署

l

l 安装步骤

o VS Code扩展商店搜索”Continue”

o 安装官⽅版本(作者为continue.dev)

o 左下⻆出现Continue图标表示安装成功

l 核⼼功能

o 代码⾃动补全

o 代码对话与修改

o 多模型切换⽀持

7. 配置⽂件设置 06:10

l DeepSeek-V3本地部署

l 关键配置项

o models: 对话模型列表

o tabAutocompleteModel: ⾃动补全模型

o provider: 服务提供商(Ollama/DeepSeek等)

l 配置要点

o 模型名称必须与ollama list显示完全⼀致

o 可配置多个模型实现灵活切换

o 建议对话模型和补全模型分开配置

8. 千万⼆点五模型对话示例

l DeepSeek-V3本地部署

l 使⽤⽅法

o 选中代码按Ctrl+L添加到对话

o 输⼊⾃然语⾔指令(如”优化这段代码”)

o 模型返回修改建议

l 交互功能

o Accept/Reject选择是否采纳修改

o ⽀持中⽂指令交互

o 可追问细节问题

9. ⾃动补全功能示例

DeepSeek-V3本地部署

l

l 触发⽅式

o 输⼊代码时⾃动提示

o 按Tab键展开完整建议

l 配置选项

o 右下⻆可开关⾃动补全功能

o ⽀持单独配置补全模型

o 建议使⽤专⽤代码模型(如qwen-coder)

10. 配置DeepSeek接⼝

DeepSeek-V3本地部署

l

l 优势特点

o 成本极低(0.1元/百万token)

o 模型能⼒强(600B参数)

o 新⽤户赠送500万token

l 配置步骤

o 在DeepSeek平台创建API Key

o 在Continue中选择DeepSeek提供商

o 粘贴API Key完成连接

l 注意事项

o API调⽤存在数据泄露⻛险

o 适合⾮敏感代码场景

o 建议⼩额充值测试使⽤

二、知识小结

知识点 核⼼内容 技术要点/易混 淆点 难度系数
本地AI代码 编辑器搭建 ⽅案 使⽤VS Code

+ Ollama + Qwen2.5-

Coder 实现免 费本地代码 编辑,⽆需 调⽤外部API

– Ollama服务安 装与模型下载;

显存限制 (如24G显存 仅⽀持32B参 数模型); – 模 型选择建议( 14B参数性价 ⽐⾼)

★★★
低成本云端 ⽅案 通过

DeepSeek V3

API实现低成 本代码补全 ( 0.1元/百万 Token)

– API Key申请 与配置; – 价格 优势(对⽐其 他模型); – 数 据安全⻛险提 示 ★★
VS Code插件 配置 Continue插件

集成本地/云 端模型,⽀ 持代码补全 与对话式修 改

– config.json 模型路径匹配;

– ⾃动补全( Tab键触发); – 代码修改(Ct rl+I接受/拒 绝)

★★★★
模型对⽐ Qwen2.5- Coder(本 地)vs

DeepSeek V3(云端)

– 本地部署:

免费但依赖硬 件; – 云端API: 低成本但存在

数据暴露⻛险

★★★
实操步骤 1. 下载VS Code官⽅版;

2. Ollama安装 与模型加载;

3. Continue插 件配置

– 模型名称需 严格匹配; – 服 务状态验证( ollama list命 令) ★★★★
© 版权声明

相关文章

暂无评论

暂无评论...