hoeem (@hooeem) 写了篇《I want to become a Claude architect (full course)》,756 万浏览、5.6 万收藏。他把 Anthropic 的 Claude Certified Architect 考试大纲拆了个底朝天,英文圈已经传开了,中文圈还没刷到。
我用 Claude Code 写了大半年代码,从预测市场量化交易到链上数据分析都是它干的。下面从日常使用的角度过一遍这五个考试领域,聊聊哪些学了就能用,哪些停留在纸面上。
Agent 架构占了快 30%,但这恰恰是最容易"纸上谈兵"的部分。反倒是 MCP 和 Context Management 这两个权重不高的领域,实际使用中坑最多。
考试考 coordinator-subagent 模式、Agent SDK 的编排机制。
我每天用 subagent,但用法很朴素。在我的 CLAUDE.md 里,不同类型的任务会路由到不同模型:
检索/探索类 → haiku(快、便宜)
内容/代码审查 → sonnet(够用)
策略/资金相关 → opus(不能省)
主会话分配任务,各干各的。一个找文件的、一个写推文的、一个跑策略报告的,没有什么精妙的多层编排。
复杂的 agent 协作架构我试过,调试成本远超收益。五个 agent 互相传递 context,一个出错整条链路崩掉。最后发现单个 agent 直接干完反而更稳。考试考的是怎么设计多 agent 编排,但实战告诉我:选对模型比画架构图重要得多。
server scoping、环境变量、项目级和用户级配置的区别——这些考试会考,而且确实是基本功。
但真正难的不在考纲里。我接了 10 来个 MCP server,每个都踩过坑。举两个例子:
twitter 的 MCP server,API 有调用限制,而且我用两个 X 账号(主号和小号),需要做账号隔离——读取用小号避免主号被风控,互动必须用主号。这种"同一个 server 对接多个身份"的场景,考试不会覆盖。
playwright 的 MCP server,cookie 注入时好时坏。登录态在不同 server 之间会冲突——你用 playwright 登了 A 网站,puppeteer 再去访问同一个域名,session 就乱了。最后我的方案是给每个 server 分配独立的 browser profile。
一条经验:通用需求用社区现成的 server,业务逻辑特殊的自己写。省时间但别省判断。
CLAUDE.md 层级结构、rules 目录、slash commands、skills frontmatter——考试考的都是基础知识点。
但 CLAUDE.md 这东西,用着用着你会发现它不只是个配置文件。我现在的体系长这样:
全局 CLAUDE.md → 用户身份、交付标准、协作偏好
rules/ 目录 → 行为规范、捕捉机制、记忆刷新规则(自动加载)
项目级 CLAUDE.md → 业务上下文、策略参数
memory/ 目录 → 跨会话状态、当天进度、踩坑记录
这些不是一开始就设计好的,是一个一个坑踩出来的。比如我有个 SSOT(单一信息源)所有权表:
策略状态 → 只能改 PROJECT_CONTEXT.md
当天进度 → 只能改 today.md
持仓数据 → 只能改 portfolio.md
为什么要这么严格?因为之前同一个数字写在三个文件里,改了一处忘了另外两处,排查了半天才发现数据不一致。
这套配置体系的框架我放在了 GitHub 上(claude-workflow),有兴趣可以看看实际长什么样。
考试会问 skills frontmatter 怎么写。不会问你怎么让规则体系跟着使用习惯自动演化。
few-shot、JSON schema、tool_use,该知道的都知道。
比考试知识更有用的是理解 Claude 的行为模式。它收到模糊指令时倾向于过度解释,给它明确的角色定位和成功标准能显著减少废话。我的 CLAUDE.md 里有一条"禁止语"清单:
禁止说:"改好了你跑一下" / "应该没问题" / "可能通过了" / "理论上是对的"
加了这条之后,Claude 的输出质量明显上来了——它不再给你模糊的交差,而是必须拿出验证证据。
我还搞了个"溯源检查":写完内容后自动扫一遍事实性陈述,标注哪些有出处、哪些是修辞、哪些可能是模型编的。每条标注为 ✅ 事实、🎨 修辞、❌ 无源。这种防御性思路考试不涉及,但在实际使用中每天都用得上。
这块考试考理论,但翻车全在细节上。
什么时候压缩 context?我的阈值是 15 轮对话或 30 次工具调用。压缩之后怎么恢复?有个顺序:
第一步:查记忆库(qmd search)→ 找到相关的踩坑记录和模式
第二步:读当天工作日志(today.md)→ 知道做到哪了
第三步:重读项目文档(PROJECT_CONTEXT.md)→ 补全业务上下文
这个顺序不能乱。先读项目文档再查记忆库的话,你会浪费大量 context 在已经知道的背景信息上,留给增量信息的空间就少了。
subagent 失败怎么处理?配置错误直接修,逻辑错误回退,连续三次失败就停下来先把经验记下来,别继续蛮干。我的 behaviors.md 里写死了这条规则:连续 3 次失败 → 停下重新评估,禁止第 4 次尝试同样的方法。
hoeem 在文章里整理了六个练习场景:客服 Agent、代码生成、多 Agent 研究系统、开发工具、CI/CD pipeline、结构化数据提取。这不是考试官方题目,是他建议的学习路线。
代码生成我每天都在用。CI/CD 我拿来跑自主研究 agent——用 claude -p 非交互模式,每天凌晨 3 点自动跑一轮分析,早上起来看报告。数据提取用在 Polymarket 的链上数据分析,从 API 拉交易记录、计算 PnL、识别大户行为模式。
考试场景都很"干净"——现实中你得处理账号被封、API 改了接口没通知、数据格式隔三差五变一次。
考试目前只对 Claude Partner Network 成员开放,$99 一次。加入 Partner Network 本身免费,但需要是"把 Claude 推向市场的组织",个人开发者暂时没戏。
这个认证的知识体系确实值得系统学一遍,特别是 MCP 和 context management 部分,很多人用了半天 Claude Code 还不知道这两块的存在。但证书证明的是你理解了 Anthropic 设计的理想架构,跟你能不能用 Claude Code 交付一个完整产品,是两码事。
选个项目从头到尾做完,比背考纲有用。
如果你想系统学,最简单的方式是让 Claude 根据这五个 Domain 给你生成一个学习计划,每天带你过一点。用 Claude 学 Claude,一两周下来该懂的就都懂了。
参考资料:I want to become a Claude architect (full course) - @hooeem
关于作者:Leo (@runes_leo),AI × Crypto 独立构建者。用 Claude Code 做预测市场量化交易和数据分析,日常工作流围绕 Claude Code + MCP + 多代理协作。写代码、做产品、记踩坑,偶尔在 X 上分享实战经验。