Skip to content

Obsidian Copilot 使用指南

Obsidian Copilot 是 Obsidian 中最强大的 AI 助手插件之一,提供类似 GitHub Copilot 的智能体验。

功能特点

核心功能

  • 智能补全:基于上下文的智能文本补全
  • 对话模式:与 AI 进行多轮对话
  • 内容生成:自动生成、改写、总结内容
  • 命令系统:使用命令快速执行任务
  • 多模型支持:支持 OpenAI、Anthropic、本地模型

主要优势

优势说明
易于使用安装即可用,配置简单
功能全面涵盖文本处理各种场景
高度集成深度集成到 Obsidian 工作流
隐私可控支持本地模型

安装与配置

安装插件

  1. 打开设置 → 第三方插件
  2. 浏览社区插件
  3. 搜索 "Obsidian Copilot"
  4. 安装并启用

基础配置

1. 选择 AI 服务商

打开插件设置,选择模型提供商:

选项一:OpenAI

API Key: sk-xxxxxxxxxxxxx
Model: gpt-4o / gpt-4-turbo / gpt-3.5-turbo

选项二:Anthropic

API Key: sk-ant-xxxxxxxxxxxxx
Model: claude-3-5-sonnet / claude-3-opus

选项三:本地模型

Endpoint: http://localhost:11434
Model: llama3 / mistral

2. 获取 API Key

推荐

Claude 3.5 Sonnet 在理解和生成方面表现优异,特别适合中文内容。

OpenAI

  1. 访问 https://platform.openai.com/api-keys
  2. 点击 "Create new secret key"
  3. 复制 Key(只显示一次)

Anthropic

  1. 访问 https://console.anthropic.com
  2. 创建 API Key
  3. 复制保存

3. 参数设置

参数建议值说明
Temperature0.7创造性(0-1)
Max Tokens2000最大生成长度
Context Size4000上下文窗口大小

基本使用

快捷键

快捷键功能
Ctrl/Cmd + J打开 Copilot 面板
Ctrl/Cmd + Shift + J快速生成
Tab接受补全建议

智能补全

在编辑器中输入内容,Copilot 会自动提供补全建议:

输入:今天的会议主要讨论了

Copilot 建议:项目进度、资源分配和下阶段计划。关键决策包括:
1. 推迟发布日期两周
2. 增加两名开发人员
3. 优先完成核心功能

Tab 接受建议,或继续输入自定义内容。

对话模式

  1. Ctrl/Cmd + J 打开面板
  2. 输入问题或指令
  3. AI 会基于当前笔记内容回答

示例对话

用户:总结这篇笔记的要点

AI:这篇笔记主要讨论了以下要点:
1. 项目进度延迟的原因分析
2. 资源重新分配的方案
3. 下阶段的具体计划

需要我详细展开某个要点吗?

命令系统

使用斜杠命令快速执行任务:

/summarize     - 总结当前笔记
/improve       - 改进写作质量
/translate     - 翻译选中文本
/expand        - 扩展内容
/simplify      - 简化复杂表述
/outline       - 生成大纲
/qa            - 生成问答

使用示例

  1. 选中一段文字
  2. 输入 /summarize
  3. AI 自动生成总结

进阶用法

自定义命令

创建个性化命令:

  1. 打开插件设置 → Custom Commands
  2. 添加新命令
  3. 编写提示词模板

示例 - 生成周报

yaml
name: 生成周报
prompt: |
  基于以下笔记内容,生成一份简洁的周报:
  - 主要完成事项
  - 遇到的问题
  - 下周计划

  格式要求:
  1. 使用项目符号
  2. 每项不超过一行
  3. 总字数控制在 200 字以内

模板变量

在提示词中使用变量:

变量说明
当前选中文本
当前笔记全文
当前笔记标题
当前日期
当前笔记标签

示例

请为笔记"{{title}}"生成一个摘要,重点突出:
{{selection}}

摘要要求:
- 控制在 100 字以内
- 使用简洁语言
- 保留关键信息

批量处理

处理多个笔记:

  1. 打开命令面板(Ctrl/Cmd + P
  2. 输入 "Copilot: Batch Process"
  3. 选择要处理的笔记
  4. 选择处理命令

应用场景

  • 批量生成摘要
  • 批量添加标签
  • 批量翻译
  • 批量格式化

工作流集成

学习笔记工作流

mermaid
graph LR
    A[阅读资料] --> B[剪藏到 Obsidian]
    B --> C[AI 总结]
    C --> D[生成问答]
    D --> E[间隔重复复习]

操作步骤

  1. 使用 Web Clipper 剪藏文章
  2. 使用 Copilot 总结要点
  3. 生成问答卡片
  4. 使用 Spaced Repetition 插件复习

写作工作流

第一步:生成大纲

/outline
主题:如何使用 Obsidian 进行知识管理
要求:3 个主要部分,每部分 2-3 个要点

第二步:扩展内容

选中大纲某项 → /expand

第三步:润色修改

选中段落 → /improve

任务管理工作流

结合 Tasks 插件:

AI 分析项目笔记,生成任务清单:

- [ ] 完成数据收集 #project/alpha
- [ ] 编写分析报告 #project/alpha
- [ ] 准备演示材料 #project/alpha

高级配置

使用本地模型

Ollama 方案

  1. 安装 Ollama:https://ollama.ai
  2. 下载模型:ollama pull llama3
  3. 启动服务:ollama serve
  4. 配置 Copilot:
    Endpoint: http://localhost:11434
    Model: llama3

LM Studio 方案

  1. 下载 LM Studio
  2. 加载模型(推荐 Llama 3 8B)
  3. 启动本地服务器
  4. 配置 Endpoint

推荐

Llama 3 8B 在消费级 GPU 上运行流畅,性能接近 GPT-3.5。

成本优化

设置使用限额

在插件设置中:

Daily Limit: $1.00
Monthly Limit: $20.00
Alert at: 80%

缓存策略

启用缓存避免重复请求:

Enable Cache: true
Cache TTL: 24 hours

模型选择策略

场景推荐模型成本
简单补全GPT-3.5 Turbo
复杂推理GPT-4o / Claude 3.5 Sonnet
大量使用本地模型

隐私与安全

数据处理

云端模型

  • 数据发送到 AI 服务商
  • 遵循服务商隐私政策
  • 不存储训练数据(OpenAI/Anthropic)

本地模型

  • 完全本地处理
  • 不联网
  • 最高隐私保护

最佳实践

  1. 敏感信息:使用本地模型处理
  2. API Key 安全
    • 不分享 API Key
    • 定期轮换
    • 设置使用限额
  3. 内容审查:定期检查 AI 生成内容

常见问题

补全建议不准确?

解决方案

  1. 提供更多上下文
  2. 调整 Temperature 参数
  3. 使用更强大的模型(如 GPT-4)

响应速度慢?

解决方案

  1. 使用更快的模型(GPT-3.5)
  2. 减少 Max Tokens
  3. 使用本地模型

成本过高?

解决方案

  1. 启用缓存
  2. 使用本地模型
  3. 设置使用限额
  4. 优化提示词减少 Token 消耗

如何提高生成质量?

提示词优化

❌ 差:帮我写个总结

✅ 好:请总结以下内容的核心观点,要求:
1. 控制在 150 字以内
2. 使用简洁语言
3. 突出关键信息
4. 保持客观中立的语气

相关资源


最后更新:2024-01-15

最后更新:2026年4月7日编辑此页反馈问题