Continue 插件完整手册
🚀 IDE AI 编程助手 - 让编码更智能、更高效
📖 阅读指南
| 读者类型 | 推荐阅读路径 |
|---|---|
| 新手用户 | 第 1-3 章 → 第 5 章(实战演练) |
| 进阶用户 | 第 4 章(配置详解)→ 第 6 章(本地引擎) |
| 运维人员 | 第 3 章 → 第 7 章(故障排除)→ 附录 |
🎯 第一章:Continue 是什么?
1.1 一句话介绍
Continue 是一个开源的 IDE AI 编程助手插件,支持 VS Code 和 JetBrains IDE,让你能够:
- 💬 对话式编码 - 与 AI 聊天讨论代码
- ⌨️ 智能补全 - 输入时自动预测下一行代码
- 🔍 代码理解 - 快速解释、重构、测试代码
1.2 系统架构总览
graph TB
subgraph User-Layer[用户层]
VS[VS Code]
JB[JetBrains IDE]
end
subgraph Plugin-Layer[Continue 插件层]
UI[UI 界面]
CC[上下文管理]
AC[自动补全引擎]
CH[聊天模块]
end
subgraph Model-Layer[模型层]
LM[语言模型接口]
EM[嵌入模型]
end
subgraph Provider-Layer[提供商层]
subgraph Cloud[云端服务]
OA[OpenAI]
AN[Anthropic]
GO[Google]
GR[Groq]
end
subgraph Local[本地引擎]
OL[Ollama]
LC[llama.cpp]
LS[LM Studio]
end
end
VS --> UI
JB --> UI
UI --> CC
UI --> AC
UI --> CH
CC --> LM
AC --> LM
CH --> LM
LM --> Cloud
LM --> Local
CC --> EM
1.3 功能对比图
| 功能 | Continue | GitHub Copilot | Cursor |
|---|---|---|---|
| 免费使用 | ✅ | ❌(试用) | ❌(试用) |
| 本地模型 | ✅ | ❌ | ✅ |
| 开源 | ✅ | ❌ | ❌ |
| VS Code | ✅ | ✅ | N/A |
| JetBrains | ✅ | ✅ | ❌ |
1.4 典型使用场景
flowchart LR
subgraph 场景一 [场景一:写代码]
A[输入代码] --> B[按 Tab]
B --> C[AI 补全]
end
subgraph 场景二 [场景二:问问题]
D[打开侧边栏] --> E[提问]
E --> F[获得答案]
end
subgraph 场景三 [场景三:理解代码]
G[选中代码] --> H[按 Ctrl+L]
H --> I[AI 解释]
end
🚀 第二章:5 分钟快速开始
2.1 完整流程概览
flowchart TD
A[第 1 步:安装插件] --> B[第 2 步:选择模式]
B --> C{云端 or 本地?}
C -->|云端 - 简单 | D[配置 API Key]
C -->|本地 - 免费 | E[安装 Ollama + 下载模型]
D --> F[第 3 步:验证使用]
E --> F
F --> G[🎉 开始编码!]
2.2 第一步:安装插件(1 分钟)
VS Code 用户:
graph LR
A[按 Ctrl+Shift+X] --> B[搜索 Continue]
B --> C[点击 Install]
C --> D[完成!]
JetBrains 用户(IntelliJ/PyCharm/WebStorm):
graph LR
A[Settings ⚙️] --> B[Plugins]
B --> C[搜索 Continue]
C --> D[点击 Install]
D --> E[重启 IDE]
2.3 第二步:选择模式(二选一)
🌐 云端模式 - 最简单,需要 API Key
适用人群: 想要快速开始,有 OpenAI/Claude 账号的用户
操作步骤:
1️⃣ 获取 API Key(以 OpenAI 为例)
- 访问 https://platform.openai.com/api-keys
- 点击 "Create new secret key"
- 复制生成的 Key(格式:
sk-...)
2️⃣ 配置 Continue
{
"models": [{
"title": "GPT-4o",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "sk-your-api-key-here"
}]
}
💻 本地模式 - 完全免费,需要额外安装
适用人群: 想要免费使用、注重隐私的用户
操作步骤:
1️⃣ 安装 Ollama
# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh
# Windows: 访问 https://ollama.ai/download 下载安装包
2️⃣ 下载模型(约 2GB)
ollama pull llama3.2
3️⃣ 配置 Continue
{
"models": [{
"title": "Llama 3.2",
"provider": "ollama",
"model": "llama3.2:latest"
}]
}
2.4 第三步:验证使用(1 分钟)
打开 Continue 侧边栏:
- VS Code: 点击左侧工具栏的 Continue 图标 🤖
- JetBrains:
View → Tool Windows → Continue
发送第一条消息:
Hi! 请帮我写一个 Python 函数,计算斐波那契数列的第 n 项。
预期结果: AI 会返回类似这样的代码:
def fibonacci(n):
if n <= 1:
return n
return fibonacci(n-1) + fibonacci(n-2)
📦 第三章:详细部署指南
3.1 系统要求
| 组件 | 最低配置 | 推荐配置 |
|---|---|---|
| 内存 | 8GB | 16GB+(本地模式) |
| 磁盘 | 2GB 可用空间 | 10GB+(存放模型) |
| GPU | 无要求 | NVIDIA/Apple Silicon(加速推理) |
3.2 配置详解
配置文件位置
| IDE | 配置文件路径 | 命令打开 |
|---|---|---|
| VS Code | /home/at/.continue/config.yaml | Continue: Open Settings |
| JetBrains | .continue/config.ts | Settings → Continue |
配置 - 默认
name: Local Config
version: 1.0.0
schema: v1
models:
- name: Llama 3.1 8B
provider: ollama
model: llama3.1:8b
roles:
- chat
- edit
- apply
- name: Qwen2.5-Coder 1.5B
provider: ollama
model: qwen2.5-coder:1.5b-base
roles:
- autocomplete
- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embed
配置 - llama.cpp
name: Local Config - llama.cpp
version: 1.0.0
schema: v1
models:
- name: "qwen3.5-4b-coder (Chat)"
provider: "llama-cpp-python"
model: "qwen3.5-4b-python-coder"
apiBase: "https://4060.atibm.com/v1"
apiKey: "your-api-key-here"
roles: [chat, edit, apply]
- name: "qwen3.5-4b-coder (Autocomplete)"
provider: "llama-cpp-python"
model: "qwen3.5-4b-python-coder"
apiBase: "https://4060.atibm.com/v1"
apiKey: "your-api-key-here"
roles: [autocomplete]
- name: "text-embed"
provider: "llama-cpp-python"
model: "text-embedding-models"
apiBase: "https://4060.atibm.com/v1"
apiKey: "your-api-key-here"
roles: [embed]配置 - lms
name: Local Config - LM Studio
version: 1.0.0
schema: v1
models:
- name: "Qwen3.5-4B-coder (Chat)"
provider: "openai"
model: "qwen3.5-4b-python-coder"
apiBase: "https://4060.atibm.com/v1"
apiKey: "lm-studio" # LMS 没有apiKey也需要设个虽易值
roles: [chat, edit, apply]
- name: "Qwen3.5-4B-coder (Autocomplete)"
provider: "openai"
model: "qwen3.5-0.8b"
apiBase: "https://4060.atibm.com/v1"
apiKey: "lm-studio"
roles: [autocomplete]
- name: "text-embedding"
provider: "openai"
model: "text-embedding-nomic-embed-text-v1.5"
apiBase: "https://4060.atibm.com/v1"
apiKey: "lm-studio"
roles: [embed]3.3 本地引擎详细安装
Ollama(最推荐 )
# === 安装 ===
macOS: brew install ollama
Linux: curl -fsSL https://ollama.ai/install.sh | sh
Windows: 下载 https://ollama.ai/download
# === 启动服务 ===
ollama serve
# === 验证安装 ===
curl http://localhost:11434
LM Studio(图形化界面)
# 1. 下载 https://lmstudio.ai/download
# 2. 运行安装程序
# 3. 启动后自动监听端口 1234
llama.cpp(最灵活)
# === 编译安装 ===
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp && make
# === 启动服务 ===
./llama-server -m models/model.gguf --port 8080
3.4 Docker 部署
# docker-compose.yml
cat <<'EOF'
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- "11434:11434"
volumes:
- ollama_data:/root/.ollama
restart: unless-stopped
volumes:
ollama_data:
EOF
# === 启动服务 ===
docker-compose up -d
# === 验证 ===
curl http://localhost:11434/api/tags
3.5 部署验证清单 ✅
#!/bin/bash
echo "=== Continue 部署验证 ==="
sleep 1
# 检查 Ollama 服务
echo -n "📡 Ollama 服务 (端口 11434): "
curl -s http://localhost:11434 > /dev/null && echo "✅ 运行中" || echo "❌ 未启动"
# 检查模型列表
echo -n "📦 已下载模型:"
MODELS=$(curl -s http://localhost:11434/api/tags | grep -o '"name":"[^"]*"' | wc -l)
echo "$MODELS 个"
# 测试模型响应
echo -n "🧠 模型响应测试:"
curl -s -X POST http://localhost:11434/api/generate \
-d '{"model":"llama3.2","prompt":"Hi","stream":false}' \
> /dev/null && echo "✅ 正常" || echo "❌ 失败"
⚙️ 第四章:配置详解
4.1 最小化配置
{
"models": [{
"provider": "ollama",
"model": "llama3.2:latest"
}]
}
4.2 推荐配置
{
// === 主模型 - 用于对话聊天 ===
"models": [{
"title": "🌐 GPT-4o (云端)",
"provider": "openai",
"model": "gpt-4o",
"apiKey": "${OPENAI_API_KEY}",
"contextWindow": 128000
}, {
"title": "💻 Llama 3.2 (本地)",
"provider": "ollama",
"model": "llama3.2:latest"
}],
// === 自动补全模型 - 独立配置,要求响应快 ===
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"provider": "ollama",
"model": "llama3.2:latest"
},
// === 嵌入模型 - 用于代码库搜索 ===
"embeddingsModel": {
"provider": "ollama",
"model": "nomic-embed-text"
},
// === 系统提示词 ===
"systemMessage": "你是一个专业的编程助手,请用中文回答。"
}
4.3 各模型提供商配置模板
OpenAI
{
"provider": "openai",
"model": "gpt-4o",
"apiKey": "sk-...",
"contextWindow": 128000
}
Anthropic
{
"provider": "anthropic",
"model": "claude-3-5-sonnet-20241022",
"apiKey": "sk-ant-...",
"contextWindow": 200000
}
{
"provider": "google",
"model": "gemini-2.0-flash",
"apiKey": "AIza...",
"contextWindow": 1048576
}
Groq
{
"provider": "groq",
"model": "llama-3.3-70b-versatile",
"apiKey": "gsk_...",
"contextWindow": 128000
}
Ollama
{
"provider": "ollama",
"model": "llama3.2:latest",
"apiBase": "http://localhost:11434"
}
4.4 高级配置示例
{
// === 自定义命令 ===
"customCommands": [
{
"name": "explain",
"description": "解释代码",
"prompt": "请用中文详细解释以下代码:\n\n{{selection}}"
},
{
"name": "test",
"description": "生成测试",
"prompt": "请为以下代码生成单元测试:\n\n{{selection}}"
}
],
// === 上下文提供者 ===
"contextProviders": [
{"name": "file", "description": "添加文件"},
{"name": "codebase", "description": "整个代码库"},
{"name": "terminal", "description": "终端输出"}
]
}
🎹 第五章:操作命令速查
5.1 IDE 快捷键一览
| 功能 | VS Code | JetBrains |
|---|---|---|
| 打开 Continue | Ctrl+P → Continue | Cmd+Shift+A → Continue |
| 编辑配置 | Continue: Edit Settings JSON | Settings → Continue |
| 解释选中代码 | Continue: Explain Selection | 右键 → Continue → Explain |
| 生成测试 | Continue: Test Selection | 右键 → Continue → Test |
5.2 聊天命令
在聊天框中输入 / 可以看到所有可用命令:
| 命令 | 说明 | 示例 |
|---|---|---|
/diff | 显示差异模式 | /diff |
/terse | 简洁回答 | /terse 解释这个函数 |
/tests | 生成测试代码 | /tests |
/teach | 教学模式 | /teach React Hooks |
5.3 上下文命令
在聊天框中输入 @ 可以添加上下文:
| 命令 | 说明 | 使用场景 |
|---|---|---|
@Files | 添加文件 | 讨论特定文件时 |
@Codebase | 搜索代码库 | 全局搜索相关代码 |
@Folder | 添加文件夹 | 理解模块结构 |
@Terminal | 终端输出 | 调试错误信息 |
5.4 Tab 自动补全快捷键
graph LR
A[开始输入代码] --> B[等待灰色提示出现]
B --> C{操作}
C -->|按 Tab| D[接受建议]
C -->|按 Alt+→| E[下一个建议]
C -->|按 Esc| F[关闭建议]
🖥️ 第六章:本地推理引擎详解
6.1 引擎选择指南
quadrantChart
title "本地推理引擎对比"
x-axis "易用性" --> "专业性"
y-axis "功能简单" --> "功能丰富"
"Ollama": [0.2, 0.7]
"LM Studio": [0.3, 0.6]
"llama.cpp": [0.9, 0.8]
| 特性 | Ollama | LM Studio | llama.cpp |
|---|---|---|---|
| 安装难度 | ⭐ 简单 | ⭐⭐ 中等 | ⭐⭐⭐ 复杂 |
| GUI 界面 | ❌ | ✅ | ❌ |
| API 兼容 | OpenAI | OpenAI | OpenAI/原生 |
| GPU 支持 | 自动 | 自动 | 需配置 |
| 默认端口 | 11434 | 1234 | 8080 |
6.2 Ollama 完整配置示例
# === 安装 ===
curl -fsSL https://ollama.ai/install.sh | sh
# === 下载模型 ===
ollama pull llama3.2 # 主模型(约 2GB)
ollama pull qwen2.5-coder:7b # 代码专用模型(约 4.5GB)
ollama pull nomic-embed-text # 嵌入模型(约 60MB)
# === 查看已下载模型 ===
ollama list
# === 测试模型 ===
ollama run llama3.2 "Hello, how are you?"
Continue 配置:
{
"provider": "ollama",
"model": "llama3.2:latest",
"apiBase": "http://localhost:11434",
"contextWindow": 200000,
"temperature": 0.7
}
6.3 llama.cpp 配置示例
# === 编译安装 ===
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp && make
# === 启动服务器(GPU 加速)===
./llama-server \
-m models/llama3.2.gguf \
--host 0.0.0.0 \
--port 8080 \
--ctx-size 200000 \
--n-gpu-layers 99
Continue 配置(OpenAI 兼容模式):
{
"provider": "openai",
"model": "llama3.2",
"apiBase": "http://localhost:8080/v1",
"apiKey": "dummy",
"contextWindow": 200000
}
6.4 连接测试脚本
#!/bin/bash
echo "=== 本地引擎连接测试 ==="
# Ollama
echo -n "Ollama (11434): "
curl -s http://localhost:11434/api/tags > /dev/null && echo "✅" || echo "❌"
# llama.cpp
echo -n "llama.cpp (8080): "
curl -s http://localhost:8080/v1/models > /dev/null && echo "✅" || echo "❌"
# LM Studio
echo -n "LM Studio (1234): "
curl -s http://localhost:1234/v1/models > /dev/null && echo "✅" || echo "❌"
🔧 第七章:故障排除
7.1 问题诊断流程图
flowchart TD
A[无法连接模型] --> B{使用本地还是云端?}
B -->|本地 | C[服务运行中?]
C -->|否 | D[启动服务:ollama serve]
C -->|是 | E[端口正确?]
E -->|否 | F[检查配置文件]
E -->|是 | G[防火墙设置?]
B -->|云端 | H[API Key 有效?]
H -->|否 | I[获取新 Key]
H -->|是 | J[网络可达?]
J -->|否 | K[检查代理/防火墙]
7.2 常见问题速查表
| 问题 | 原因 | 解决方案 |
|---|---|---|
| Connection refused | 服务未启动 | ollama serve |
| Model not found | 模型未下载 | ollama pull llama3.2 |
| Timeout | 模型加载慢 | 增加超时设置 |
| CORS error | 跨域限制 | OLLAMA_ORIGINS="*" |
| API Key 无效 | Key 错误 | 检查 Key 格式 |
| 响应慢 | 网络延迟 | 使用本地模型 |
7.3 日志调试方法
# VS Code 日志位置
cat ~/Library/Logs/Code/
# Ollama 调试模式
OLLAMA_DEBUG=1 ollama serve
# Continue 详细日志配置
{
"debug": true,
"verboseLogging": true
}
📊 第八章:性能优化
8.1 本地引擎性能对比
| 引擎 | 模型 | 首字延迟 | 吞吐量 | 内存占用 |
|---|---|---|---|---|
| Ollama | llama3.2 3B | ~500ms | 30 tok/s | ~4GB |
| Ollama | llama3.2 7B | ~1s | 25 tok/s | ~8GB |
| llama.cpp | qwen2.5-coder 7B | ~800ms | 28 tok/s | ~6GB |
测试环境:M2 Pro, 32GB RAM, GPU 加速
8.2 优化配置示例
{
"tabAutocompleteOptions": {
"debounceMs": 200,
"maxPromptTokens": 100
},
"cache": {
"enabled": true,
"ttl": 3600000
}
}
❓ 第九章:FAQ 常见问题
Q1: 如何选择云端还是本地?
flowchart TD
A{需求分析}
A -->|需要高质量 | B[云端 GPT-4o/Claude]
A -->|需要隐私 | C[本地模型]
A -->|需要低成本 | C
A -->|需要离线 | C
Q2: 如何切换模型?
在 Continue 侧边栏顶部点击当前模型名称,选择其他模型。
Q3: 如何禁用自动补全?
{
"tabAutocompleteEnabled": false
}
🎓 第十章:实战演练 - 代码补全实例
10.1 环境准备
前提条件:
- ✅ VS Code 已安装 Continue 插件
- ✅ Ollama 已安装并运行
- ✅ llama3.2 模型已下载
验证命令:
# 检查服务
curl http://localhost:11434
# 检查模型
ollama list | grep llama3.2
10.2 配置 Continue
打开 VS Code,按 Ctrl+Shift+P,输入 Continue: Edit Settings JSON,添加以下配置:
{
"models": [{
"title": "Llama 3.2",
"provider": "ollama",
"model": "llama3.2:latest"
}],
"tabAutocompleteEnabled": true,
"tabAutocompleteModel": {
"provider": "ollama",
"model": "llama3.2:latest"
}
}
10.3 创建测试文件
在 VS Code 中创建一个新文件 test-python.py,输入以下内容:
def fibonacci(n):
"""计算斐波那契数列的第 n 项"""
if n <= 1:
return n
10.4 触发代码补全
操作步骤:
- 将光标放在
return n的下一行 - 继续输入(或等待约 500ms)
- Continue 会显示灰色文字提示
预期补全结果:
def fibonacci(n):
"""计算斐波那契数列的第 n 项"""
if n <= 1:
return n
return fibonacci(n-1) + fibonacci(n-2) # ← AI 自动补全的灰色文字
按 Tab 键接受建议,代码会自动插入。
10.5 使用聊天功能
操作步骤:
- 点击左侧工具栏 Continue 图标 🤖
- 选中上面的 fibonacci 函数
- 在聊天框输入:
@Files 解释这个函数的时间复杂度 - AI 会给出详细的分析回答
📚 附录
A. 快速参考卡
⌨️ 快捷键速查
| 操作 | 快捷键 |
|---|---|
| 接受完整建议 | Tab |
| 拒绝建议 | Esc |
| 逐词接受 | Ctrl/Cmd + → |
| 强制触发补全 | Ctrl/Cmd + Alt + Space |
📦 推荐模型组合
免费方案(本地 Ollama):
代码补全:qwen2.5-coder:1.5b (~1GB, 速度快)
对话问答:qwen2.5-coder:7b (~4GB, 质量好)
付费方案(API):
代码补全:gpt-4o-mini (便宜快速)
对话问答:Claude Sonnet 4.6 (质量高)
B. 常用链接
- 官方文档: https://docs.continue.dev
- VS Code 插件: https://marketplace.visualstudio.com/items?itemName=Continue.continue
- Ollama 模型库: https://ollama.ai/library
- GitHub 仓库: https://github.com/continuedev/continue
C. API 端点参考
| 提供商 | API 端点 |
|---|---|
| OpenAI | https://api.openai.com/v1 |
| Anthropic | https://api.anthropic.com/v1 |
https://generativelanguage.googleapis.com/v1beta | |
| Groq | https://api.groq.com/openai/v1 |
手册版本: v2.0
最后更新: 2026-04-12
整合说明: 综合优化自多个 Continue 相关文档,保留核心内容并统一格式。