整吧

Posted by BX on Wed, Jan 21, 2026

学习计划

围绕 PPT 中的素材,我把学习顺序拆成三个阶段:先补齐认知与阅读,再熟悉模型与评测方法,最后搭建工具链与自动化体系。下面的列表按这个节奏组织,你可以按章节逐步推进。

1. 注意事项

2. 理论与案例阅读

2.1 必读 / 入门(建议一口气读完)

2.2 Anthropic 官方文章(作为一组工作手册)

2.3 进阶延伸(补完认知边界)

3. 模型与评测

3.1 基本性能指标

  • Token 计算器:估算一段代码需要的上下文预算。
  • SWE-Bench:衡量“智力水平”的公共基准,目标是 70%+(配合推理策略)。
  • Claude API 成本页:结合 Prompt Cache、Reasoning、ToolUse 规划预算。

3.2 国际主流模型

  • gpt-5.2-codex:适合修复 BUG,精准但稍慢。
  • Gemini 3.0 Pro:对话体验最佳,适合作为常驻副驾。
  • Gemini 3.0 Flash:强调推理速度,可做快速遍历。
  • Opus:当前最强的 coding 模型,可以作为主力 agent。
  • Sonnet 4.5:“全能模型”,进一步搭配 Haiku 形成梯队。

3.3 中国模型

  • Qwen3 Max:定位“中国特色 Gemini”。
  • Qwen3 Coder Plus:备用 coder,当占坑模型使用。
  • GLM 4.6:能力不错,但近期表现趋弱,关注版本更新。
  • Minimax-M2:推理速度与成本折中,可跑本土合规方案。
  • Kimi K2:主打长上下文场景,可配合知识库。

4. 工具链与平台

4.1 Web / Remote Agent

4.2 VSCode-Fork 工具(商业 + 开源)

4.3 CLI 工具

  • Claude Code:特性最丰富、适用场景最广。
  • Codex CLI:功能简洁,主要靠模型力。
  • OpenCode:插件设计成熟,适合复杂工作区。
  • iflow:国产 Claude Code。
  • gemini cli:简单但更新迅速,可抢鲜体验。

4.4 个人常用 AI 工具

  • Cherry Studio:跨平台桌面副驾。
  • Gemini Pro 会员:追求高可用的聊天体验。
  • AIHubMix:托管多模型/多代理,做统一入口。
  • notebooklm:知识库管理。
  • Dify:快速把简单功能上线。
  • zread / deepwiki:分析开源仓库、提炼资料。

5. MCP 生态与插件

5.1 快速找 MCP

5.2 常用 MCP(安装优先级)

6. 知识沉淀与 SOP

  • cc-plugin:把 AI 行为写成 llmdoc,构建“外挂持久化数据层”。
  • recorder:自动记录操作轨迹,生成 SOP 日志,配合“commit 前手动总结”机制使用。