其实是一次小尝试,全程使用 Trae 进行开发,从完全不知道如何开发插件,到在GitHub上发布项目,总共用时一个小时多一点吧。

Obsidian 插件开发文档:https://luhaifeng666.github.io/obsidian-plugin-docs-zh/

项目背景

在写博客的时候,总是因为太懒直接不写摘要,或者用标题替代摘要,所以想着能不能借用现在大语言模型的文本生成能力,进行自动生成填写摘要信息。因此这个项目诞生了。

本文介绍的 AutoDescription 插件,通过集成 Kimi AI 的先进 NLP 能力,实现了 Markdown 文档的智能摘要生成,并自动注入 Front Matter 元数据。

核心实现

1. 摘要生成引擎

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
// 核心调用逻辑
async callKimi(content: string, prompt: string): Promise<string> {
const response = await fetch('https://api.moonshot.cn/v1/chat/completions', {
method: 'POST',
headers: {
'Content-Type': 'application/json',
'Authorization': `Bearer ${this.settings.apiKey}`
},
body: JSON.stringify({
model: this.settings.model,
messages: [
{
role: 'system',
content: '你是一个专业的文章摘要生成助手...'
},
{
role: 'user',
content: `${prompt}\n\n${content}`
}
]
})
});
// ... 错误处理与响应解析
}

其实就是发送一个 API 调用请求……

我是一个大模型的高强度使用玩家,从最初的 GPT3.5 横空出世,到 DeepSeek 推理模型风靡全国,再到如今百花齐放的场面,颇有一种吾家有子初长成的喜悦。

在我的日常使用中,我发现各家的大模型在不同的场景下的能力还是有着较大差别的,本文使用 Kimi 是因为,Kimi的响应速度较快,且不受境外IP的访问限制。

https://platform.moonshot.cn/docs/guide/start-using-kimi-api

2. 元数据注入系统

1
2
3
4
5
6
7
8
insertSummaryToFrontMatter(editor: Editor, summary: string) {
// 智能处理 Front Matter 的三种情况:
// 1. 已存在 description 字段 → 替换
// 2. 无 description 字段 → 追加
// 3. 无 Front Matter → 新建
const regex = /description:.*?($|\n)/;
// ... 实现细节见完整代码
}

功能亮点:

  • 正则表达式精准匹配现有字段
  • 非破坏性编辑保障文档完整性
  • 支持多行摘要的 YAML 语法转义

工程化实践

配置管理系统

1
2
3
4
5
6
7
interface AutoDescriptionSettings {
apiProvider: string;
apiKey: string;
model: string;
summaryLength: number; // 50-500 范围控制
customPrompt: string; // 支持 {length} 模板变量
}

动态界面渲染

1
2
3
4
5
6
7
8
9
10
display(): void {
// 根据 API 提供商动态渲染模型选项
new Setting(containerEl)
.addDropdown(dropdown => dropdown
.addOption('moonshot-v1-8k', 'Moonshot V1 8K')
.addOption('moonshot-v1-32k', 'Moonshot V1 32K')
// ...其他选项
);
// ... 其他交互组件
}

扩展方向

  1. 多模型支持架构
    1
    2
    3
    interface LLMAdapter {
    generate(prompt: string, content: string): Promise<string>;
    }
  2. 本地缓存策略
    1
    2
    3
    4
    const cache = new LRU({
    max: 100,
    ttl: 3600_000 // 1小时缓存
    });

完整项目代码已开源在 GitHub 仓库,欢迎 Star 和贡献代码!


© 2024 Montee | Powered by Hexo | Theme stellar


Static Badge