Skip to main content
·
Wey GuWey Gu
·2 min read

你的 LLM Wiki 已经存在了

Andrej Karpathy 的 LLM Wiki 模式描述了如何用 LLM 构建个人知识库。Nowledge Mem 已经在做这件事,区别在于:这个 wiki 会自己维护自己。

import { Callout } from ‘fumadocs-ui/components/callout’;

Andrej Karpathy 最近发了一篇叫 LLM Wiki 的文档,很快就火了。核心想法是:不要每次提问都从原始文档里重新检索(RAG 模式),而是让 LLM 逐步构建和维护一个持久化的 wiki。知识会积累,交叉引用会变多,矛盾会被标记出来。人负责筛选来源和提问,LLM 负责所有的整理工作。

我们从 2025 年就在做同样的事。不是因为看了这篇文档(当时还没发),而是从另一个方向碰到了同一个问题:AI 工具在会话之间什么都记不住,而维护知识库的负担才是让它死掉的原因。

这篇文章会把 LLM Wiki 的概念逐一映射到 Nowledge Mem 已经在做的事情上,探讨这个模式还能走多远,以及我们接下来要做什么。

诊断是对的

Karpathy 准确指出了核心问题:

维护知识库最累的部分不是阅读,也不是思考,是整理。

完全同意。交叉引用、版本追踪、矛盾检测、综合提炼、保持一切一致。人会放弃 wiki,因为维护的成本增长得比价值更快。LLM 不会厌倦整理工作。这个判断完全正确。

我们的分歧在执行模型上。LLM Wiki 是手动工作流:你放一个文档进去,告诉 LLM 处理它,引导提取过程,检查结果。这能用,对很多场景来说也是合适的控制粒度。但如果 wiki 能自己维护自己呢?

把 LLM Wiki 映射到 Nowledge Mem

LLM Wiki 有三层:原始来源、wiki、schema。三个操作:摄入、查询、检查。

摄入

在 LLM Wiki 里,你放一个来源进去,告诉 LLM 处理。LLM 阅读它,写摘要页,更新实体页,标注矛盾,追加到日志。一个来源可能触及 10-15 个 wiki 页面。

在 Nowledge Mem 里,知识从多个渠道同时进入。Claude Code 和 Cursor 的编程会话自动同步浏览器扩展在你使用 ChatGPT、Gemini、Claude 聊天时自动捕获洞察。往 Timeline 里粘贴一个 URL,内容会被解析、分块、索引。往资料库拖入一个 PDF,同样处理。每个入口都通向同一个知识系统。

关键区别是:你不需要记得去摄入。捕获通过你已经在用的工具自然发生。

当一条新记忆到达时,后台智能开始工作。实体提取识别出人物、技术、概念。EVOLVES 检测判断这条新内容是替换、丰富、确认还是挑战你已有的知识。如果足够多的记忆汇聚到同一个主题,知识结晶就会形成:一篇从三个以上来源综合而成的参考文章。

一个来源可以触及几十条连接。你不用要求它这样做。

查询

LLM Wiki 的查询操作搜索 wiki,综合出答案,并把有价值的分析存回去当新页面。

Nowledge Mem 的搜索管道并行运行六种策略:语义向量、全文匹配、实体图遍历、社区聚类、标签过滤和关系边行走。快速模式在 100ms 内返回结果,深度模式会加上 LLM 重排序来处理复杂的时间和多跳查询。

查询到知识的闭环才是最有意思的地方。在我们的图谱智能体里,你可以在知识图谱上选中节点,问关于它们的问题,智能体会用 26 个专用工具推理你的整个知识库:路径查找、桥接节点发现、EVOLVES 链追踪、社区分析、PageRank 计算。智能体的分析过程会在画布上逐步高亮显示,发现的结果可以存回去变成知识结晶或报告。

这就是 LLM Wiki 的"查询"操作,但它是交互式和可视化的。你不只是在搜索文本文件,而是在探索一张包含你所有知识的活的图谱。

检查

LLM Wiki 建议定期让 LLM 对 wiki 做健康检查:找矛盾、过时内容、孤立页面、缺失的交叉引用。

在 Nowledge Mem 里,这自动运行。后台智能包含 13 个任务:7 个按计划执行,6 个由事件触发。矛盾检测、过时检查和社区发现不用你主动要求。结果以标记的形式出现在你的 Timeline 里:“你三月的评估和十月的结论矛盾了。”“这份部署指南已经被更新的笔记覆盖了。”

每日工作记忆简报(~/ai-now/memory.md)相当于 LLM Wiki 的 index.mdlog.md 的合体。它浮现活跃话题、未解决的标记、近期变化和优先事项。每个已连接的工具在会话开始时都会读取它。

当 wiki 自己运行起来,什么变了

LLM Wiki 描述了一个人来指挥、LLM 来执行的工作流。这是好模型。但我们发现,去掉手动步骤会改变整个系统的经济性。

捕获变成了环境级别的事。你不用想着该存什么。浏览器扩展在你聊天时自动捕获,编程会话自动同步,URL 解析是即时的。往系统里添加知识的成本趋近于零。

维护变成了持续进行的事。LLM Wiki 建议定期做检查。Nowledge Mem 在事件触发和每日计划上运行矛盾检测、演化追踪和结晶综合。wiki 永远不会变旧,因为它不会等你来清理。

知识可以跨工具使用。LLM Wiki 通常是一个人、一个 LLM 智能体、一个 Obsidian 库。Nowledge Mem 处在你和所有 AI 工具之间。在 Claude Code 里保存一个决策,明天 Cursor 就能找到它,下周 Gemini CLI 会用它来辅助代码审查。工作记忆简报给每个工具同样的起始上下文。

图谱做到了 index.md 做不到的事。LLM Wiki 用手动维护的索引文件来导航。规模大了以后这会出问题。Nowledge Mem 的知识图谱从结构上解决这件事:实体节点、关系边、社区聚类和 EVOLVES 链。搜索"分布式系统"能找到你关于"Node.js 微服务"的记忆,因为它们共享实体连接,而不是因为有人记得去更新索引。

我们从这个模式中学到的

这篇文档有几个判断对我们的路线图有直接影响:

刻意的摄入有它的价值。我们现在的资料库是自动化的:放一个文件进去,它就处理了。但有时候你想坐下来认真看一个来源,引导式地提取:"这篇论文的核心贡献是 X,跟我之前关于 Y 的决策有关。"我们正在做一个"研读"模式,让你在提取知识之前,先和智能体一起交互式地探索一个来源。

可浏览的知识页面很重要。LLM Wiki 用户打开 Obsidian 就能看到他们的知识以可读页面的形式呈现。我们的图谱检查视图还在显示数据库字段。我们正在把它重新设计为知识页面:选中一个实体,就能看到所有关联记忆、EVOLVES 时间线、知识结晶出现次数和社区上下文。

可移植性就是信任。"wiki 就是一个 git 仓库里的 markdown 文件。"这很有力。我们正在做 wiki 导出:从你的知识图谱生成一个互相关联的 markdown 文件夹,带 Obsidian 兼容的 wikilink 和 YAML frontmatter。你的知识应该是可移植的。

如果你现在就想搭建自己的 LLM Wiki

如果 Karpathy 的文档引起了你的共鸣,有两条路。

手动路径:按文档来。设置文件夹结构,配好 CLAUDE.mdAGENTS.md,用 Obsidian 浏览。你会学到很多关于什么适合你的领域的东西。对想要完全控制每一步的人来说,这是好的起点。

自动路径:安装 Nowledge Mem。保存第一条记忆。连接你的主力 AI 工具。剩下的交给系统:实体提取、演化追踪、矛盾检测、结晶综合、每日简报。你保持 Karpathy 描述的那个人类角色(筛选来源、提问、思考这一切意味着什么),只是不用自己做整理。

两条路通向同一个地方:知识在积累,而不是在衰减。区别只在于你想自己搭管道,还是今天就开始用。

延伸阅读

© 2026 Nowledge Labs. 构建知识层。