Obsidian Copilot 使用指南
Obsidian Copilot 是 Obsidian 中最强大的 AI 助手插件之一,提供类似 GitHub Copilot 的智能体验。
功能特点
核心功能
- 智能补全:基于上下文的智能文本补全
- 对话模式:与 AI 进行多轮对话
- 内容生成:自动生成、改写、总结内容
- 命令系统:使用命令快速执行任务
- 多模型支持:支持 OpenAI、Anthropic、本地模型
主要优势
| 优势 | 说明 |
|---|---|
| 易于使用 | 安装即可用,配置简单 |
| 功能全面 | 涵盖文本处理各种场景 |
| 高度集成 | 深度集成到 Obsidian 工作流 |
| 隐私可控 | 支持本地模型 |
安装与配置
安装插件
- 打开设置 → 第三方插件
- 浏览社区插件
- 搜索 "Obsidian Copilot"
- 安装并启用
基础配置
1. 选择 AI 服务商
打开插件设置,选择模型提供商:
选项一:OpenAI
API Key: sk-xxxxxxxxxxxxx
Model: gpt-4o / gpt-4-turbo / gpt-3.5-turbo选项二:Anthropic
API Key: sk-ant-xxxxxxxxxxxxx
Model: claude-3-5-sonnet / claude-3-opus选项三:本地模型
Endpoint: http://localhost:11434
Model: llama3 / mistral2. 获取 API Key
推荐
Claude 3.5 Sonnet 在理解和生成方面表现优异,特别适合中文内容。
OpenAI:
- 访问 https://platform.openai.com/api-keys
- 点击 "Create new secret key"
- 复制 Key(只显示一次)
Anthropic:
- 访问 https://console.anthropic.com
- 创建 API Key
- 复制保存
3. 参数设置
| 参数 | 建议值 | 说明 |
|---|---|---|
| Temperature | 0.7 | 创造性(0-1) |
| Max Tokens | 2000 | 最大生成长度 |
| Context Size | 4000 | 上下文窗口大小 |
基本使用
快捷键
| 快捷键 | 功能 |
|---|---|
Ctrl/Cmd + J | 打开 Copilot 面板 |
Ctrl/Cmd + Shift + J | 快速生成 |
Tab | 接受补全建议 |
智能补全
在编辑器中输入内容,Copilot 会自动提供补全建议:
输入:今天的会议主要讨论了
Copilot 建议:项目进度、资源分配和下阶段计划。关键决策包括:
1. 推迟发布日期两周
2. 增加两名开发人员
3. 优先完成核心功能按 Tab 接受建议,或继续输入自定义内容。
对话模式
- 按
Ctrl/Cmd + J打开面板 - 输入问题或指令
- AI 会基于当前笔记内容回答
示例对话:
用户:总结这篇笔记的要点
AI:这篇笔记主要讨论了以下要点:
1. 项目进度延迟的原因分析
2. 资源重新分配的方案
3. 下阶段的具体计划
需要我详细展开某个要点吗?命令系统
使用斜杠命令快速执行任务:
/summarize - 总结当前笔记
/improve - 改进写作质量
/translate - 翻译选中文本
/expand - 扩展内容
/simplify - 简化复杂表述
/outline - 生成大纲
/qa - 生成问答使用示例:
- 选中一段文字
- 输入
/summarize - AI 自动生成总结
进阶用法
自定义命令
创建个性化命令:
- 打开插件设置 → Custom Commands
- 添加新命令
- 编写提示词模板
示例 - 生成周报:
yaml
name: 生成周报
prompt: |
基于以下笔记内容,生成一份简洁的周报:
- 主要完成事项
- 遇到的问题
- 下周计划
格式要求:
1. 使用项目符号
2. 每项不超过一行
3. 总字数控制在 200 字以内模板变量
在提示词中使用变量:
| 变量 | 说明 |
|---|---|
| 当前选中文本 |
| 当前笔记全文 |
| 当前笔记标题 |
| 当前日期 |
| 当前笔记标签 |
示例:
请为笔记"{{title}}"生成一个摘要,重点突出:
{{selection}}
摘要要求:
- 控制在 100 字以内
- 使用简洁语言
- 保留关键信息批量处理
处理多个笔记:
- 打开命令面板(
Ctrl/Cmd + P) - 输入 "Copilot: Batch Process"
- 选择要处理的笔记
- 选择处理命令
应用场景:
- 批量生成摘要
- 批量添加标签
- 批量翻译
- 批量格式化
工作流集成
学习笔记工作流
mermaid
graph LR
A[阅读资料] --> B[剪藏到 Obsidian]
B --> C[AI 总结]
C --> D[生成问答]
D --> E[间隔重复复习]操作步骤:
- 使用 Web Clipper 剪藏文章
- 使用 Copilot 总结要点
- 生成问答卡片
- 使用 Spaced Repetition 插件复习
写作工作流
第一步:生成大纲
/outline
主题:如何使用 Obsidian 进行知识管理
要求:3 个主要部分,每部分 2-3 个要点第二步:扩展内容
选中大纲某项 → /expand第三步:润色修改
选中段落 → /improve任务管理工作流
结合 Tasks 插件:
AI 分析项目笔记,生成任务清单:
- [ ] 完成数据收集 #project/alpha
- [ ] 编写分析报告 #project/alpha
- [ ] 准备演示材料 #project/alpha高级配置
使用本地模型
Ollama 方案
- 安装 Ollama:https://ollama.ai
- 下载模型:
ollama pull llama3 - 启动服务:
ollama serve - 配置 Copilot:
Endpoint: http://localhost:11434 Model: llama3
LM Studio 方案
- 下载 LM Studio
- 加载模型(推荐 Llama 3 8B)
- 启动本地服务器
- 配置 Endpoint
推荐
Llama 3 8B 在消费级 GPU 上运行流畅,性能接近 GPT-3.5。
成本优化
设置使用限额
在插件设置中:
Daily Limit: $1.00
Monthly Limit: $20.00
Alert at: 80%缓存策略
启用缓存避免重复请求:
Enable Cache: true
Cache TTL: 24 hours模型选择策略
| 场景 | 推荐模型 | 成本 |
|---|---|---|
| 简单补全 | GPT-3.5 Turbo | 低 |
| 复杂推理 | GPT-4o / Claude 3.5 Sonnet | 中 |
| 大量使用 | 本地模型 | 无 |
隐私与安全
数据处理
云端模型:
- 数据发送到 AI 服务商
- 遵循服务商隐私政策
- 不存储训练数据(OpenAI/Anthropic)
本地模型:
- 完全本地处理
- 不联网
- 最高隐私保护
最佳实践
- 敏感信息:使用本地模型处理
- API Key 安全:
- 不分享 API Key
- 定期轮换
- 设置使用限额
- 内容审查:定期检查 AI 生成内容
常见问题
补全建议不准确?
解决方案:
- 提供更多上下文
- 调整 Temperature 参数
- 使用更强大的模型(如 GPT-4)
响应速度慢?
解决方案:
- 使用更快的模型(GPT-3.5)
- 减少 Max Tokens
- 使用本地模型
成本过高?
解决方案:
- 启用缓存
- 使用本地模型
- 设置使用限额
- 优化提示词减少 Token 消耗
如何提高生成质量?
提示词优化:
❌ 差:帮我写个总结
✅ 好:请总结以下内容的核心观点,要求:
1. 控制在 150 字以内
2. 使用简洁语言
3. 突出关键信息
4. 保持客观中立的语气相关资源
最后更新:2024-01-15