产物:continue 手册1.md

Continue 插件完整手册

🚀 IDE AI 编程助手 - 让编码更智能、更高效


📖 阅读指南

读者类型推荐阅读路径
新手用户第 1-3 章 → 第 5 章(实战演练)
进阶用户第 4 章(配置详解)→ 第 6 章(本地引擎)
运维人员第 3 章 → 第 7 章(故障排除)→ 附录

🎯 第一章:Continue 是什么?

1.1 一句话介绍

Continue 是一个开源的 IDE AI 编程助手插件,支持 VS Code 和 JetBrains IDE,让你能够:

  • 💬 对话式编码 - 与 AI 聊天讨论代码
  • ⌨️ 智能补全 - 输入时自动预测下一行代码
  • 🔍 代码理解 - 快速解释、重构、测试代码

1.2 系统架构总览

graph TB
    subgraph User-Layer[用户层]
        VS[VS Code]
        JB[JetBrains IDE]
    end
    
    subgraph Plugin-Layer[Continue 插件层]
        UI[UI 界面]
        CC[上下文管理]
        AC[自动补全引擎]
        CH[聊天模块]
    end
    
    subgraph Model-Layer[模型层]
        LM[语言模型接口]
        EM[嵌入模型]
    end
    
    subgraph Provider-Layer[提供商层]
        subgraph Cloud[云端服务]
            OA[OpenAI]
            AN[Anthropic]
            GO[Google]
            GR[Groq]
        end
        subgraph Local[本地引擎]
            OL[Ollama]
            LC[llama.cpp]
            LS[LM Studio]
        end
    end
    
    VS --> UI
    JB --> UI
    UI --> CC
    UI --> AC
    UI --> CH
    CC --> LM
    AC --> LM
    CH --> LM
    LM --> Cloud
    LM --> Local
    CC --> EM

1.3 功能对比图

功能ContinueGitHub CopilotCursor
免费使用❌(试用)❌(试用)
本地模型
开源
VS CodeN/A
JetBrains

1.4 典型使用场景

flowchart LR
    subgraph 场景一 [场景一:写代码]
        A[输入代码] --> B[按 Tab] 
        B --> C[AI 补全]
    end
    
    subgraph 场景二 [场景二:问问题]
        D[打开侧边栏] --> E[提问] 
        E --> F[获得答案]
    end
    
    subgraph 场景三 [场景三:理解代码]
        G[选中代码] --> H[按 Ctrl+L] 
        H --> I[AI 解释]
    end

🚀 第二章:5 分钟快速开始

2.1 完整流程概览

flowchart TD
    A[第 1 步:安装插件] --> B[第 2 步:选择模式]
    B --> C{云端 or 本地?}
    C -->|云端 - 简单 | D[配置 API Key]
    C -->|本地 - 免费 | E[安装 Ollama + 下载模型]
    D --> F[第 3 步:验证使用]
    E --> F
    F --> G[🎉 开始编码!]

2.2 第一步:安装插件(1 分钟)

VS Code 用户:

graph LR
    A[按 Ctrl+Shift+X] --> B[搜索 Continue]
    B --> C[点击 Install]
    C --> D[完成!]

JetBrains 用户(IntelliJ/PyCharm/WebStorm):

graph LR
    A[Settings ⚙️] --> B[Plugins]
    B --> C[搜索 Continue]
    C --> D[点击 Install]
    D --> E[重启 IDE]

2.3 第二步:选择模式(二选一)

🌐 云端模式 - 最简单,需要 API Key

适用人群: 想要快速开始,有 OpenAI/Claude 账号的用户

操作步骤:

1️⃣ 获取 API Key(以 OpenAI 为例)

2️⃣ 配置 Continue

{
  "models": [{
    "title": "GPT-4o",
    "provider": "openai",
    "model": "gpt-4o",
    "apiKey": "sk-your-api-key-here"
  }]
}

💻 本地模式 - 完全免费,需要额外安装

适用人群: 想要免费使用、注重隐私的用户

操作步骤:

1️⃣ 安装 Ollama

# macOS / Linux
curl -fsSL https://ollama.ai/install.sh | sh

# Windows: 访问 https://ollama.ai/download 下载安装包

2️⃣ 下载模型(约 2GB)

ollama pull llama3.2

3️⃣ 配置 Continue

{
  "models": [{
    "title": "Llama 3.2",
    "provider": "ollama",
    "model": "llama3.2:latest"
  }]
}

2.4 第三步:验证使用(1 分钟)

打开 Continue 侧边栏:

  • VS Code: 点击左侧工具栏的 Continue 图标 🤖
  • JetBrains: View → Tool Windows → Continue

发送第一条消息:

Hi! 请帮我写一个 Python 函数,计算斐波那契数列的第 n 项。

预期结果: AI 会返回类似这样的代码:

def fibonacci(n):
    if n <= 1:
        return n
    return fibonacci(n-1) + fibonacci(n-2)

📦 第三章:详细部署指南

3.1 系统要求

组件最低配置推荐配置
内存8GB16GB+(本地模式)
磁盘2GB 可用空间10GB+(存放模型)
GPU无要求NVIDIA/Apple Silicon(加速推理)

3.2 配置详解

配置文件位置

IDE配置文件路径命令打开
VS Code/home/at/.continue/config.yamlContinue: Open Settings
JetBrains.continue/config.tsSettings → Continue

配置 - 默认

name: Local Config
version: 1.0.0
schema: v1
models:
  - name: Llama 3.1 8B
    provider: ollama
    model: llama3.1:8b
    roles:
      - chat
      - edit
      - apply
  - name: Qwen2.5-Coder 1.5B
    provider: ollama
    model: qwen2.5-coder:1.5b-base
    roles:
      - autocomplete
  - name: Nomic Embed
    provider: ollama
    model: nomic-embed-text:latest
    roles:
      - embed

配置 - llama.cpp

name: Local Config - llama.cpp
version: 1.0.0
schema: v1

models:
  - name: "qwen3.5-4b-coder (Chat)"
    provider: "llama-cpp-python"
    model: "qwen3.5-4b-python-coder"
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "your-api-key-here"
    roles: [chat, edit, apply]

  - name: "qwen3.5-4b-coder (Autocomplete)"
    provider: "llama-cpp-python"
    model: "qwen3.5-4b-python-coder"
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "your-api-key-here"
    roles: [autocomplete]

  - name: "text-embed"
    provider: "llama-cpp-python"
    model: "text-embedding-models"
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "your-api-key-here"
    roles: [embed]

配置 - lms

name: Local Config - LM Studio
version: 1.0.0
schema: v1

models:
  - name: "Qwen3.5-4B-coder (Chat)"
    provider: "openai"
    model: "qwen3.5-4b-python-coder"
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "lm-studio" # LMS 没有apiKey也需要设个虽易值
    roles: [chat, edit, apply]

  - name: "Qwen3.5-4B-coder (Autocomplete)"
    provider: "openai"
    model: "qwen3.5-0.8b" 
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "lm-studio"
    roles: [autocomplete]

  - name: "text-embedding"
    provider: "openai"
    model: "text-embedding-nomic-embed-text-v1.5"
    apiBase: "https://4060.atibm.com/v1"
    apiKey: "lm-studio"
    roles: [embed]

3.3 本地引擎详细安装

Ollama(最推荐 )

# === 安装 ===
macOS:    brew install ollama
Linux:    curl -fsSL https://ollama.ai/install.sh | sh
Windows:  下载 https://ollama.ai/download

# === 启动服务 ===
ollama serve

# === 验证安装 ===
curl http://localhost:11434

LM Studio(图形化界面)

# 1. 下载 https://lmstudio.ai/download
# 2. 运行安装程序
# 3. 启动后自动监听端口 1234

llama.cpp(最灵活)

# === 编译安装 ===
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp && make

# === 启动服务 ===
./llama-server -m models/model.gguf --port 8080

3.4 Docker 部署

# docker-compose.yml
cat <<'EOF'
version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    ports:
      - "11434:11434"
    volumes:
      - ollama_data:/root/.ollama
    restart: unless-stopped

volumes:
  ollama_data:
EOF

# === 启动服务 ===
docker-compose up -d

# === 验证 ===
curl http://localhost:11434/api/tags

3.5 部署验证清单 ✅

#!/bin/bash
echo "=== Continue 部署验证 ==="
sleep 1

# 检查 Ollama 服务
echo -n "📡 Ollama 服务 (端口 11434): "
curl -s http://localhost:11434 > /dev/null && echo "✅ 运行中" || echo "❌ 未启动"

# 检查模型列表
echo -n "📦 已下载模型:"
MODELS=$(curl -s http://localhost:11434/api/tags | grep -o '"name":"[^"]*"' | wc -l)
echo "$MODELS 个"

# 测试模型响应
echo -n "🧠 模型响应测试:"
curl -s -X POST http://localhost:11434/api/generate \
  -d '{"model":"llama3.2","prompt":"Hi","stream":false}' \
  > /dev/null && echo "✅ 正常" || echo "❌ 失败"

⚙️ 第四章:配置详解

4.1 最小化配置

{
  "models": [{
    "provider": "ollama",
    "model": "llama3.2:latest"
  }]
}

4.2 推荐配置

{
  // === 主模型 - 用于对话聊天 ===
  "models": [{
    "title": "🌐 GPT-4o (云端)",
    "provider": "openai",
    "model": "gpt-4o",
    "apiKey": "${OPENAI_API_KEY}",
    "contextWindow": 128000
  }, {
    "title": "💻 Llama 3.2 (本地)",
    "provider": "ollama",
    "model": "llama3.2:latest"
  }],
  
  // === 自动补全模型 - 独立配置,要求响应快 ===
  "tabAutocompleteEnabled": true,
  "tabAutocompleteModel": {
    "provider": "ollama",
    "model": "llama3.2:latest"
  },
  
  // === 嵌入模型 - 用于代码库搜索 ===
  "embeddingsModel": {
    "provider": "ollama",
    "model": "nomic-embed-text"
  },
  
  // === 系统提示词 ===
  "systemMessage": "你是一个专业的编程助手,请用中文回答。"
}

4.3 各模型提供商配置模板

OpenAI

{
  "provider": "openai",
  "model": "gpt-4o",
  "apiKey": "sk-...",
  "contextWindow": 128000
}

Anthropic

{
  "provider": "anthropic",
  "model": "claude-3-5-sonnet-20241022",
  "apiKey": "sk-ant-...",
  "contextWindow": 200000
}

Google

{
  "provider": "google",
  "model": "gemini-2.0-flash",
  "apiKey": "AIza...",
  "contextWindow": 1048576
}

Groq

{
  "provider": "groq",
  "model": "llama-3.3-70b-versatile",
  "apiKey": "gsk_...",
  "contextWindow": 128000
}

Ollama

{
  "provider": "ollama",
  "model": "llama3.2:latest",
  "apiBase": "http://localhost:11434"
}

4.4 高级配置示例

{
  // === 自定义命令 ===
  "customCommands": [
    {
      "name": "explain",
      "description": "解释代码",
      "prompt": "请用中文详细解释以下代码:\n\n{{selection}}"
    },
    {
      "name": "test",
      "description": "生成测试",
      "prompt": "请为以下代码生成单元测试:\n\n{{selection}}"
    }
  ],
  
  // === 上下文提供者 ===
  "contextProviders": [
    {"name": "file", "description": "添加文件"},
    {"name": "codebase", "description": "整个代码库"},
    {"name": "terminal", "description": "终端输出"}
  ]
}

🎹 第五章:操作命令速查

5.1 IDE 快捷键一览

功能VS CodeJetBrains
打开 ContinueCtrl+PContinueCmd+Shift+AContinue
编辑配置Continue: Edit Settings JSONSettings → Continue
解释选中代码Continue: Explain Selection右键 → Continue → Explain
生成测试Continue: Test Selection右键 → Continue → Test

5.2 聊天命令

在聊天框中输入 / 可以看到所有可用命令:

命令说明示例
/diff显示差异模式/diff
/terse简洁回答/terse 解释这个函数
/tests生成测试代码/tests
/teach教学模式/teach React Hooks

5.3 上下文命令

在聊天框中输入 @ 可以添加上下文:

命令说明使用场景
@Files添加文件讨论特定文件时
@Codebase搜索代码库全局搜索相关代码
@Folder添加文件夹理解模块结构
@Terminal终端输出调试错误信息

5.4 Tab 自动补全快捷键

graph LR
    A[开始输入代码] --> B[等待灰色提示出现]
    B --> C{操作}
    C -->|按 Tab| D[接受建议]
    C -->|按 Alt+→| E[下一个建议]
    C -->|按 Esc| F[关闭建议]

🖥️ 第六章:本地推理引擎详解

6.1 引擎选择指南

quadrantChart
    title "本地推理引擎对比"
    x-axis "易用性" --> "专业性"
    y-axis "功能简单" --> "功能丰富"
    "Ollama": [0.2, 0.7]
    "LM Studio": [0.3, 0.6]
    "llama.cpp": [0.9, 0.8]
特性OllamaLM Studiollama.cpp
安装难度⭐ 简单⭐⭐ 中等⭐⭐⭐ 复杂
GUI 界面
API 兼容OpenAIOpenAIOpenAI/原生
GPU 支持自动自动需配置
默认端口1143412348080

6.2 Ollama 完整配置示例

# === 安装 ===
curl -fsSL https://ollama.ai/install.sh | sh

# === 下载模型 ===
ollama pull llama3.2          # 主模型(约 2GB)
ollama pull qwen2.5-coder:7b  # 代码专用模型(约 4.5GB)
ollama pull nomic-embed-text  # 嵌入模型(约 60MB)

# === 查看已下载模型 ===
ollama list

# === 测试模型 ===
ollama run llama3.2 "Hello, how are you?"

Continue 配置:

{
  "provider": "ollama",
  "model": "llama3.2:latest",
  "apiBase": "http://localhost:11434",
  "contextWindow": 200000,
  "temperature": 0.7
}

6.3 llama.cpp 配置示例

# === 编译安装 ===
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp && make

# === 启动服务器(GPU 加速)===
./llama-server \
  -m models/llama3.2.gguf \
  --host 0.0.0.0 \
  --port 8080 \
  --ctx-size 200000 \
  --n-gpu-layers 99

Continue 配置(OpenAI 兼容模式):

{
  "provider": "openai",
  "model": "llama3.2",
  "apiBase": "http://localhost:8080/v1",
  "apiKey": "dummy",
  "contextWindow": 200000
}

6.4 连接测试脚本

#!/bin/bash
echo "=== 本地引擎连接测试 ==="

# Ollama
echo -n "Ollama (11434): "
curl -s http://localhost:11434/api/tags > /dev/null && echo "✅" || echo "❌"

# llama.cpp
echo -n "llama.cpp (8080): "
curl -s http://localhost:8080/v1/models > /dev/null && echo "✅" || echo "❌"

# LM Studio
echo -n "LM Studio (1234): "
curl -s http://localhost:1234/v1/models > /dev/null && echo "✅" || echo "❌"

🔧 第七章:故障排除

7.1 问题诊断流程图

flowchart TD
    A[无法连接模型] --> B{使用本地还是云端?}
    
    B -->|本地 | C[服务运行中?]
    C -->|否 | D[启动服务:ollama serve]
    C -->|是 | E[端口正确?]
    E -->|否 | F[检查配置文件]
    E -->|是 | G[防火墙设置?]
    
    B -->|云端 | H[API Key 有效?]
    H -->|否 | I[获取新 Key]
    H -->|是 | J[网络可达?]
    J -->|否 | K[检查代理/防火墙]

7.2 常见问题速查表

问题原因解决方案
Connection refused服务未启动ollama serve
Model not found模型未下载ollama pull llama3.2
Timeout模型加载慢增加超时设置
CORS error跨域限制OLLAMA_ORIGINS="*"
API Key 无效Key 错误检查 Key 格式
响应慢网络延迟使用本地模型

7.3 日志调试方法

# VS Code 日志位置
cat ~/Library/Logs/Code/

# Ollama 调试模式
OLLAMA_DEBUG=1 ollama serve

# Continue 详细日志配置
{
  "debug": true,
  "verboseLogging": true
}

📊 第八章:性能优化

8.1 本地引擎性能对比

引擎模型首字延迟吞吐量内存占用
Ollamallama3.2 3B~500ms30 tok/s~4GB
Ollamallama3.2 7B~1s25 tok/s~8GB
llama.cppqwen2.5-coder 7B~800ms28 tok/s~6GB

测试环境:M2 Pro, 32GB RAM, GPU 加速

8.2 优化配置示例

{
  "tabAutocompleteOptions": {
    "debounceMs": 200,
    "maxPromptTokens": 100
  },
  "cache": {
    "enabled": true,
    "ttl": 3600000
  }
}

❓ 第九章:FAQ 常见问题

Q1: 如何选择云端还是本地?

flowchart TD
    A{需求分析}
    A -->|需要高质量 | B[云端 GPT-4o/Claude]
    A -->|需要隐私 | C[本地模型]
    A -->|需要低成本 | C
    A -->|需要离线 | C

Q2: 如何切换模型?

在 Continue 侧边栏顶部点击当前模型名称,选择其他模型。

Q3: 如何禁用自动补全?

{
  "tabAutocompleteEnabled": false
}

🎓 第十章:实战演练 - 代码补全实例

10.1 环境准备

前提条件:

  • ✅ VS Code 已安装 Continue 插件
  • ✅ Ollama 已安装并运行
  • ✅ llama3.2 模型已下载

验证命令:

# 检查服务
curl http://localhost:11434

# 检查模型
ollama list | grep llama3.2

10.2 配置 Continue

打开 VS Code,按 Ctrl+Shift+P,输入 Continue: Edit Settings JSON,添加以下配置:

{
  "models": [{
    "title": "Llama 3.2",
    "provider": "ollama",
    "model": "llama3.2:latest"
  }],
  "tabAutocompleteEnabled": true,
  "tabAutocompleteModel": {
    "provider": "ollama",
    "model": "llama3.2:latest"
  }
}

10.3 创建测试文件

在 VS Code 中创建一个新文件 test-python.py,输入以下内容:

def fibonacci(n):
    """计算斐波那契数列的第 n 项"""
    if n <= 1:
        return n

10.4 触发代码补全

操作步骤:

  1. 将光标放在 return n 的下一行
  2. 继续输入(或等待约 500ms)
  3. Continue 会显示灰色文字提示

预期补全结果:

def fibonacci(n):
    """计算斐波那契数列的第 n 项"""
    if n <= 1:
        return n
    return fibonacci(n-1) + fibonacci(n-2)  # ← AI 自动补全的灰色文字

Tab 键接受建议,代码会自动插入。

10.5 使用聊天功能

操作步骤:

  1. 点击左侧工具栏 Continue 图标 🤖
  2. 选中上面的 fibonacci 函数
  3. 在聊天框输入:@Files 解释这个函数的时间复杂度
  4. AI 会给出详细的分析回答

📚 附录

A. 快速参考卡

⌨️ 快捷键速查

操作快捷键
接受完整建议Tab
拒绝建议Esc
逐词接受Ctrl/Cmd + →
强制触发补全Ctrl/Cmd + Alt + Space

📦 推荐模型组合

免费方案(本地 Ollama):

代码补全:qwen2.5-coder:1.5b   (~1GB, 速度快)
对话问答:qwen2.5-coder:7b     (~4GB, 质量好)

付费方案(API):

代码补全:gpt-4o-mini          (便宜快速)
对话问答:Claude Sonnet 4.6    (质量高)

B. 常用链接

C. API 端点参考

提供商API 端点
OpenAIhttps://api.openai.com/v1
Anthropichttps://api.anthropic.com/v1
Googlehttps://generativelanguage.googleapis.com/v1beta
Groqhttps://api.groq.com/openai/v1

手册版本: v2.0
最后更新: 2026-04-12
整合说明: 综合优化自多个 Continue 相关文档,保留核心内容并统一格式。