LLM Wiki 在讲什么
Andrej Karpathy 最近 给出了一个特别棒的知识工作方法论 LLM Wiki:与其把所有东西塞进一段越长越乱的对话,不如在本地维护一本个人 wiki。许多小篇幅的 markdown 页面,每页只聚焦一个实体或一个话题,互相之间用 [[wikilink]] 连起来,再配一个 index.md 当目录。LLM 负责帮你做这些琐碎的整理;人来策划。
Karpathy 提到的,也是我们非常赞同的:
维护知识库最累的部分不是阅读,也不是思考,是整理。
正是这种需要正襟危坐、双手输入、做足心理建设才能开始的整理负担,让大多数个人笔记、知识、wiki 在几个月之后慢慢被搁置:交叉引用越积越多、版本对不上、矛盾散落在各处,最后没人再愿意回去更新。LLM 不会厌倦这种事,让它来打理这些琐碎,知识就能慢慢沉淀成一种人和 AI 都方便长期反复读、反复改的形式。这是 LLM Wiki 的方法论里的核心。
然而,相信 Nowledge Mem 的老用户和我们一样,在第一次看 LLM Wiki 的时候都会会心一笑:我们就是这么处理上下文的呀!以及,用双链 Wiki 来看这些知识好像不错啊。
Nowledge Mem 这一年在做什么
Karpathy 的工作分享出来之前,Mem 这边其实已经在做类似的尝试。我们走过来的路稍有不同:起点是 AI 工具一侧的两个老问题:会话之间什么都记不住,加上很难有人愿意自己长期打理一份知识库。这两件事让 AI 工具几乎无法在自己使用过程中沉淀知识。Karpathy 把这个问题和核心的解法给出了清晰的方法和命名。
过去这一年里,Mem 一直在做的事是:把你日常使用 AI 时产生的知识捕获下来,集中到一个地方。你保存的记忆、你导入的资料、浏览器扩展抓回来的对话、智能体提炼出的决策,用一张「超图」知识图谱把这些连接存起来。Background Intelligence 在后台识别主题聚类、演化关系、矛盾点。检索可以横跨所有这些内容。
Karpathy 真正点出来的工作是:把这些组织成 wiki、并且当作 wiki 来读的范式。我们尽量把可以自动化的整理工作替你处理掉,留下需要人来做的那一部分:选什么来源、问什么问题、决定什么值得留下来。这些还是你的事。
我们之前缺什么
如果你先读了 LLM Wiki 那篇文章再打开 Mem,差距会很容易感受到:知识、原始信息源、提炼出来的结论,以及它们之间的所有连接,其实都已经在知识图谱里,但 阅读的界面 却完全不是 wiki 的样子。你可以在 Knowledge Graph Agent 上或者 Graph View 里自己探索,但就是不能像 Wiki Link Surfing 那样一路点着读下去 ~
v0.8:全面拥抱 LLM Wiki
在 v0.8 里,我们重新设计了一遍,让人类用户和 Agent 都用上了完全体的 LLM Wiki。
这次我们补的是另外那一面:以知识图谱里的社区、实体、记忆结晶为基础,给资料库装上一整套可以读的 wiki 结构。
原来只是装文档和 URL 的资料库,现在成了一本你可以翻着读的 wiki:
- Wiki 标签 就在资料库最左边的那个 Tab。它把你的知识按 AI 自动整理出来的主题分簇,每张卡片下面列了这个簇里被提到最多的概念,以及总结了它们的几条结晶。点任意一张卡片,右侧就打开它的主题页。
- 实体页 就是这个实体的 wiki 词条:它属于哪个主题、第一次什么时候被识别出来、AI 给的置信度有多高、有哪些别名、哪些记忆里提过它、它身边还有哪些相邻实体。这些信息都是从图谱里实时投影出来的,不用你另外维护一份副本。
[[实体名]]wikilink 现在结晶页和 AI 生成的内容里直接可点击。AI 自己写新内容时也已经在用,所以新沉淀下来的东西天然带着互链。大小写无所谓,认别名。- 「由 N 条记忆合成」 出现在每一份结晶页和 AI 生成产物的底部,按贡献度从高到低列出它的来源记忆。点任意一行,就能在原地浮一个小窗看那条记忆。
- 和 AI 一起精读 把一份资料变成一次有引导的整理:AI 把整份资料读一遍、对照你已经存的记忆、把值得记下来的几条记忆或结晶挑出来给你看,wiki 链接已经写好了。下面有 保存 1、全部保存 或 跳过 三个按钮,不用打字回它。
- Wiki 导出 把你的整本 wiki 打成一份纯 markdown 的文件夹(
index.md、topics/、entities/、crystals/)。里面的 wiki 链接同样可以在 Obsidian、Logseq 或任意 markdown 阅读器里跳转。要刷新就再导出一次。 - 按页取的 wiki API 让 AI 或脚本不必拉整本 wiki,HTTP 直接取一页(实体、结晶或主题)的 markdown 就行。
- 结晶页和主题页的右栏做了细调。 结晶页底部多了一段「演化」:哪些更早的记忆长成了它,它后来又被改成了什么。点其中任意一行就能看那条原始记忆。主题页旁边多了一行「相关主题」,让你顺手跳到附近那个簇。每张 wiki 页都多了一个「最近更新」日期;如果和「首次出现」是同一天,就只显示一个,免得看着重复。
- 每张主题页旁边还多了一栏「这个主题上的最新动静」,列的是最近这段时间里跟这个主题相关的几条记忆,用它来回答「我最近在这个话题上想到了什么」,比翻整本 wiki 快很多。
- Wiki 里能看见图谱了。 实体页、结晶页、主题页都在右栏嵌了一张小图。和图谱标签里那张其实是同一张图,节点能点开跳页,能缩放,能悬停看上下文。主题页那张图最特别一点:画的是这个聚类自己的形状,里面的实体怎么互相牵连,哪几条记忆同时提到了它们里面好几个。哪怕这个主题底下挂了两百个实体,你看到的也是这个簇真实的轮廓。
- 深入研究:从 wiki 翻到图谱,再翻到 Graph Intelligence。 每张 wiki 页面右上角现在有个「深入研究」按钮。在实体或结晶页上点它,图谱标签会自动打开,那个节点已经选好了。在主题页上点它,整个聚类一次性高亮在画面里。然后你可以自己缩放、展开邻居;也可以让旁边的 Graph Intelligence 接手:问它「这里到底在讲什么」,问它哪里在自相矛盾,让它写一份阶段总结。Graph Intelligence 写完的结晶会回到 Library 这张主题页底下;下次再翻到这张页,它就在那里。
Nowledge Mem 的 LLM Wiki
Nowledge Mem 的 LLM Wiki,是把 Karpathy 描述的「阅读路径」叠在 Mem 一直就有的「写入路径」上。Mem 后台的 Background Intelligence 继续在「超图」知识图谱上做冲突识别、演化整理、双时间线、遗忘处理这些事;新增的 Wiki 则让你终于有一个地方可以读它。
这里有几条边界,是我们有意保持的:
- Wiki 页面是从数据层(记忆、资料、结晶)实时投影出来的;编辑发生在数据层,页面再从那里刷新。
- 导出生成的是一次性的切片副本;想要新的版本,再导一次就行。
- AI 只「提议」,由你决定要留下什么。「和 AI 一起精读」不会自动保存。
快速用起来
- 打开资料库,切到 Wiki 标签。如果空空如也,去图谱视图跑一次社群检测,再回来。
- 选一个已经有些记忆的主题。读读这个聚类,点进一个实体,再点进一个相关实体。你应该不需要打字就能一路跳着读完。
- 任意打开一份资料,点「和 AI 一起精读」。看一下提议,挑一条有用的点 保存 1。回到记忆视图找到它。
- 在任意一张 wiki 页面上点 深入研究。知识图谱会自动打开,把对应的实体、结晶或者整个主题预选好。然后你可以接着平移、展开邻居,或者把这个簇交给 Graph Intelligence,让它讲一讲这里到底是怎么回事、挑出矛盾、或者写一份初稿。你愿意保留下来的输出会作为 Crystal 回到资料库,落在你刚刚翻开过的那个 Wiki 上。
- 在分页栏点 Download。把 ZIP 在 Obsidian 这类阅读器里打开。同样那一套 wiki 链接在那边也能跳得通。
鸣谢
Karpathy 的 LLM Wiki 方法论,对 Nowledge Mem 是一面有用的镜子,让我们看清了自己在「让知识被读」这一面之前缺了什么。
接下来
v0.8 是 Mem 第一次让「读」这一面真正赶上了「写、自演进」那一面。
之后,我们想把 Agent Loop 向 Wiki 内部再收紧一点,比如:
- 让 深入研究 留下的对话,把它出发的那个聚类自动种回 Library 当 Crystal 起点;
- 给 Apple Notes / Obsidian 一类外部资料一条「双向」通道,让你在 Mem 之外的修改可以再流回来,不用手动重新导入;
- 让 EVOLVES 时间线把同一个概念在不同时间段、不同来源里出现的版本拼成一条可读的演化轨迹。