跳转到内容

Agent 团队快速入门

你知道 Agent Teams 存在,也读过理论。但什么时候在项目中真正使用它们?

本指南提供:

5 分钟设置

从环境配置到第一次测试

4 种可复制模式

适用于真实项目的实战模式

决策矩阵

何时使用、何时跳过

ROI 指标

衡量效果的方法


  1. 环境检查

    Terminal window
    # 检查 Claude Code 版本(需要 v2.1.32+)
    claude --version
    # 检查模型可用性
    claude
    > /model opus
    # 应显示: "Model changed to opus (claude-opus-4-6-20250624)"

    最低要求:Claude Code v2.1.32+、Opus 4.6 模型、Git 仓库

  2. 启用功能

    Terminal window
    # 设置环境变量(添加到 ~/.bashrc 或 ~/.zshrc 持久化)
    export CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1
    # 启动 Claude Code
    claude
  3. 验证

    > Are agent teams enabled?

    预期响应应确认 agent teams 已启用,包括多 agent 协调、基于 git 的任务分配和自主团队协调。

    如果显示未启用,检查环境变量:echo $CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS

  4. 首次测试(2 个 Agent)

    > Create a simple test team to analyze this README:
    > - Agent 1: Check structure (sections, TOC, badges)
    > - Agent 2: Check content quality (clarity, examples, completeness)

    会发生什么

    • Claude 生成 2 个 agent(你会看到 “Creating team…” 消息)
    • Agent 并行工作(可能看到 “Idle” 消息 — 这是正常的)
    • Claude 呈现综合结果

    导航Shift+Down 在进程模式中循环切换队友输出。

    持续时间:简单 2-agent 任务约 1-2 分钟。


场景:版本发布前的系统性审计,捕捉一致性问题(断链、计数不同步、版本号错误)。

团队组成

Team: pre-release-audit (3 agents)
|- accuracy-auditor -> 验证声明、统计、版本、外部链接
|- consistency-checker -> 检查模板计数、评估计数、指南行数匹配
|_ breaking-checker -> 识别与上次发布的破坏性变更

可复制的提示词

> Create a pre-release audit team:
> - Accuracy: Check all claims, stats, version numbers,
> external links in CHANGELOG.md, README.md
> - Consistency: Verify template count, eval count,
> guide lines match across all files
> - Breaking: Identify breaking changes vs last release

ROI:可捕获 URL 损坏、文件间计数不同步、多个文件中的错误版本号等问题。

何时跳过:简单的拼写修复(无版本/计数/链接变更)。


场景:在多个文件中添加新功能文档,确保跨引用一致性。

团队组成

Team: doc-update (3 agents)
|- content-writer -> 编写主要内容并附示例
|- index-updater -> 更新 TOC、索引条目、导航
|_ consistency-checker -> 验证交叉引用、行号、锚点

可复制的提示词

> Update documentation for new "[FEATURE NAME]" feature:
> - Content: Write main section with overview, examples,
> best practices + gotchas
> - Index: Update TOC, reference entries, README navigation
> - Consistency: Verify all cross-references, line numbers,
> no broken internal links

ROI:零断链,比顺序执行快 60%。


场景:审查外部贡献者的 PR 是否有安全问题、代码风格和性能。

团队组成

Team: security-pr-review (3 agents)
|- code-expert -> 检查代码模式、错误处理、惯用写法
|- security-auditor -> 扫描注入风险、令牌泄漏、输入净化
|_ perf-analyzer -> 审查内存分配、异步模式、算法复杂度

可复制的提示词

> Review PR #[NUMBER] with scope-focused analysis:
> - Code: Check patterns, error handling, idiomatic code
> - Security: Scan for injection risks, token leaks,
> input sanitization
> - Performance: Review allocations, async patterns,
> algorithm complexity

场景:验证多个数据源之间的同步状态(版本、计数、内容)。

团队组成

Team: sync-check (2 agents)
|- source-scanner -> 从源提取版本、计数等数据
|_ target-scanner -> 比较目标,检查同步状态

场景使用 Agent Teams?原因
发布前审查多层审计需要并行视角
简单拼写修复杀鸡用牛刀
外部 PR 审查安全 + 代码 + 性能 = 盲点检测
多文件文档更新内容 + 索引 + 一致性 = 零断链
CHANGELOG 更新顺序任务,无并行化收益
单文件编辑无需协调
小型 README 修改无交叉引用,无复杂性
架构设计多视角(前端、后端、基础设施、安全)
Bug 调查视情况简单 bug 否,复杂多组件故障 是
  • 你自然会想”我应该检查 X、Y 和 Z”
  • 高风险(生产发布、外部贡献者、安全敏感)
  • 需要多范围分析
  • 跨文件一致性很重要
  • 可并行工作(独立任务,无顺序依赖)

指标目标衡量方法
收敛率>50%被 2+ 个 agent 标记的发现数 / 总发现数
独特洞察每个 agent ≥1每个 agent 必须在其领域找到至少 1 个独特问题
误报率<20%无效发现数 / 总发现数
时间节省60-70%Agent teams 时间 vs 顺序估计时间
Bug 捕获率>80%Agent 发现的关键 bug / 发布后发现的总 bug

限制含义缓解措施
3 倍 token每个 agent = 独立模型调用留给高风险任务
Idle 刷屏协调过程中的正常行为忽略即可
实验性研究预览 = 稳定性无保证预期会有 bug
协调开销最多 3-5 个 agent保持 2-4 个 agent
上下文隔离Agent 看不到彼此的发现Claude 负责综合结果

Terminal window
export CLAUDE_CODE_EXPERIMENTAL_AGENT_TEAMS=1
claude
> Are agent teams enabled? # 验证

使用:高风险 + 多领域 + 可并行

不使用:简单任务 + 顺序 + 预算紧张

  1. 尝试首次测试(5 分钟设置 + 简单 2-agent 任务)
  2. 从你的项目中选择 1 种模式
  3. 衡量指标(收敛率、独特洞察、时间节省)
  4. 根据结果调整提示词