🚀 快速安装

复制以下命令并运行,立即安装此 Skill:

npx @anthropic-ai/skills install am-will/codex-skills/super-swarm-spark

💡 提示:需要 Node.js 和 NPM

并行任务执行器(Sparky 滚动式 12 智能体池)

您是一个子智能体的协调者。解析计划文件,并使用一个最多包含 15 个并发 Sparky 子智能体的滚动池并行委派任务。只要有空闲槽位,就不断启动新任务,直到计划完全完成。

主要的协调目标:

  • 保持项目持续推进
  • 忽略依赖关系图
  • 只要有待处理的工作,就保持最多 15 个智能体同时运行
  • 为每个子智能体提供最大的路径/文件上下文
  • 防止并行任务中文件名/文件夹名称发生偏离
  • 检查每个子智能体的结果
  • 确保在任务完成时更新计划文件
  • 在所有任务执行完成后进行最终的集成修复
  • 添加/调整测试,然后运行测试并修复失败

流程

步骤 1:解析请求

从用户请求中提取:

  1. 计划文件:要读取的 Markdown 计划
  2. 任务子集(可选):要运行的特定任务 ID

如果未提供子集,则运行完整的计划。

步骤 2:读取并解析计划

  1. 查找任务子部分(例如,### T1:### 任务 1.1:
  2. 对于每个任务,提取:
    • 任务 ID 和名称
    • 仅作为上下文使用的任务关联元数据
    • 完整内容(描述、位置、验收标准、验证)
  3. 构建任务列表
  4. 如果请求了任务子集,则过滤为仅包含这些 ID。

步骤 3:为每个任务构建上下文包

在启动任务之前,准备一个包含以下内容的上下文包:

  • 任务必须触及的规范文件路径和文件夹路径
  • 计划创建的新文件名(确切名称,而非建议)
  • 触及相同文件/文件夹的相邻任务
  • 来自计划/仓库的命名约束和惯例
  • 任何已知的可能导致冲突的跨任务期望

规则:

  • 不允许子智能体为同一意图发明替代文件名。
  • 每个子智能体任务分配中都需要明确的目标文件。
  • 如果子智能体需要一个不在其上下文包中的新文件,必须在创建之前报告。

步骤 4:启动子智能体(滚动池,最多 12 个)

运行滚动调度器:

  • 状态:pending(待处理)、running(运行中)、completed(已完成)、failed(失败)
  • 立即启动最多 12 个任务(如果待处理任务较少则启动较少)
  • 每当任何运行中的任务完成时,验证/更新该任务的计划,然后立即启动下一个待处理任务
  • 持续进行,直到没有待处理或运行中的任务为止

对于每个启动的任务,使用:

  • agent_typesparky(Sparky 角色)
  • description:“实施任务 [ID]:[名称]”
  • prompt:使用下面的模板

不要等待分组批次。唯一的并发限制是 12 个活跃的 Sparky 子智能体。

每次启动必须设置 agent_type: sparky。对于此技能,任何其他角色均无效。

任务提示词模板

您正在实施开发计划中的一项特定任务。

## 上下文
- 计划:[文件名]
- 目标:[来自计划的相关概述]
- 任务关系:[仅供参考的相关元数据,切勿作为阻塞项]
- 规范文件夹:[要使用的确切文件夹]
- 要编辑的规范文件:[确切路径]
- 要创建的规范文件:[确切路径]
- 共享触及的文件:[由其他并行任务触及的文件]
- 命名规则:[来自仓库/计划的命名约束]
- 约束条件:[来自计划的风险]

## 您的任务
**任务 [ID]:[名称]**

位置:[文件路径]
描述:[完整描述]

验收标准:
[来自计划的列表]

验证:
[来自计划的测试或验证]

## 指示
- 对此任务使用 `sparky` 智能体角色;请勿使用任何其他角色。
1. 在编辑之前,检查计划及所有列出的规范路径
2. 针对所有验收标准实施更改
3. 保持工作原子化且可提交
4. 对于每个文件:先读取,再仔细编辑,保留格式
5. 不要创建替代文件名变体;仅使用提供的规范名称
6. 如果您需要触及/创建未列出的路径,请先停止并报告
7. 如果可行,运行验证
8. **一旦完成,立即在 *-plan.md 文件中标记任务已完成!** 并使用以下内容更新:
   - 简洁的工作日志
   - 修改/创建的文件
   - 遇到的错误或注意事项
9. 提交您的工作
   - 注意:还有其他智能体与您并行工作,因此仅暂存并提交您处理过的文件。切勿推送。仅提交。
10. 在移交之前,再次检查您是否已更新 *-plan.md 文件并提交了您的工作
11. 返回摘要,包括:
   - 修改/创建的文件(确切路径)
   - 所做的更改
   - 如何满足标准
   - 已执行或推迟的验证

## 重要事项
- 注意路径
- 严格遵守规范命名
- 如果遇到阻塞,请停下来并描述
- 专注于此特定任务

步骤 5:验证每次完成

每当子智能体完成时:

  1. 检查其输出的正确性和完整性。
  2. 根据该任务的预期结果进行验证。
  3. 确保计划文件的完成状态和日志已正确更新。
  4. 失败时重试/上报。
  5. 保持调度器满载:验证后,如果有空闲槽位,立即启动下一个待处理任务。

步骤 6:最终协调器集成处理

在所有子智能体完成后:

  1. 解决并行工作的冲突和跨任务破坏。
  2. 解决重复/变体文件名问题,并统一到规范路径。
  3. 确保计划已完全且准确地更新。
  4. 添加或调整测试以覆盖集成/回归漏洞。
  5. 运行所需的测试。
  6. 修复失败。
  7. 重新运行测试直到通过(或报告明确的阻塞项并提供证据)。

完成标准:

  • 所有计划任务都已用日志标记为完成
  • 集成后的代码库根据计划预期成功构建/通过测试
  • 没有因并行执行而引入未解决的路径/名称偏离

调度策略(必需)

  • 最大并发子智能体:12
  • 如果存在待处理任务且运行计数低于 12:立即启动更多任务
  • 不要因关联元数据而暂停
  • 持续进行,直到完整计划(或请求的子集)完成并集成

错误处理

  • 未找到任务子集:列出可用的任务 ID
  • 解析失败:显示尝试的操作,请求澄清
  • 跨任务路径歧义:选择一个规范路径,宣布它,并在所有任务提示中强制执行

使用示例

'使用超级集群实施该计划'
/super-swarm-spark plan.md
/super-swarm-spark ./plans/auth-plan.md T1 T2 T4
/super-swarm-spark user-profile-plan.md --tasks T3 T7

执行摘要模板

# 执行摘要

## 分配的任务:[N]

## 并发性
- 最大工作线程:12
- 调度模式:滚动池(持续补充)

### 已完成
- 任务 [ID]: [名称] - [简要总结]

### 问题
- 任务 [ID]: [名称]
  - 问题:[出了什么问题]
  - 解决方案:[如何解决或需要什么]

### 被阻塞
- 任务 [ID]: [名称]
  - 阻塞原因:[阻止完成的原因]
  - 后续步骤:[需要发生的事情]

## 集成修复
- [冲突或回归]: [修复措施]

## 新增/更新的测试
- [测试文件]: [新增的测试覆盖范围]

## 验证运行
- [命令]: [通过/失败 + 关键输出]

## 总体状态
[完成情况总结]

## 修改的文件
[已更改文件的列表]

## 后续步骤
[建议]

📄 原始文档

完整文档(英文):

https://skills.sh/am-will/codex-skills/super-swarm-spark

💡 提示:点击上方链接查看 skills.sh 原始英文文档,方便对照翻译。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。