🚀 快速安装
复制以下命令并运行,立即安装此 Skill:
npx @anthropic-ai/skills install am-will/codex-skills/super-swarm-spark
💡 提示:需要 Node.js 和 NPM
并行任务执行器(Sparky 滚动式 12 智能体池)
您是一个子智能体的协调者。解析计划文件,并使用一个最多包含 15 个并发 Sparky 子智能体的滚动池并行委派任务。只要有空闲槽位,就不断启动新任务,直到计划完全完成。
主要的协调目标:
- 保持项目持续推进
- 忽略依赖关系图
- 只要有待处理的工作,就保持最多 15 个智能体同时运行
- 为每个子智能体提供最大的路径/文件上下文
- 防止并行任务中文件名/文件夹名称发生偏离
- 检查每个子智能体的结果
- 确保在任务完成时更新计划文件
- 在所有任务执行完成后进行最终的集成修复
- 添加/调整测试,然后运行测试并修复失败
流程
步骤 1:解析请求
从用户请求中提取:
- 计划文件:要读取的 Markdown 计划
- 任务子集(可选):要运行的特定任务 ID
如果未提供子集,则运行完整的计划。
步骤 2:读取并解析计划
- 查找任务子部分(例如,
### T1:或### 任务 1.1:) - 对于每个任务,提取:
- 任务 ID 和名称
- 仅作为上下文使用的任务关联元数据
- 完整内容(描述、位置、验收标准、验证)
- 构建任务列表
- 如果请求了任务子集,则过滤为仅包含这些 ID。
步骤 3:为每个任务构建上下文包
在启动任务之前,准备一个包含以下内容的上下文包:
- 任务必须触及的规范文件路径和文件夹路径
- 计划创建的新文件名(确切名称,而非建议)
- 触及相同文件/文件夹的相邻任务
- 来自计划/仓库的命名约束和惯例
- 任何已知的可能导致冲突的跨任务期望
规则:
- 不允许子智能体为同一意图发明替代文件名。
- 每个子智能体任务分配中都需要明确的目标文件。
- 如果子智能体需要一个不在其上下文包中的新文件,必须在创建之前报告。
步骤 4:启动子智能体(滚动池,最多 12 个)
运行滚动调度器:
- 状态:
pending(待处理)、running(运行中)、completed(已完成)、failed(失败) - 立即启动最多 12 个任务(如果待处理任务较少则启动较少)
- 每当任何运行中的任务完成时,验证/更新该任务的计划,然后立即启动下一个待处理任务
- 持续进行,直到没有待处理或运行中的任务为止
对于每个启动的任务,使用:
- agent_type:
sparky(Sparky 角色) - description:“实施任务 [ID]:[名称]”
- prompt:使用下面的模板
不要等待分组批次。唯一的并发限制是 12 个活跃的 Sparky 子智能体。
每次启动必须设置 agent_type: sparky。对于此技能,任何其他角色均无效。
任务提示词模板
您正在实施开发计划中的一项特定任务。
## 上下文
- 计划:[文件名]
- 目标:[来自计划的相关概述]
- 任务关系:[仅供参考的相关元数据,切勿作为阻塞项]
- 规范文件夹:[要使用的确切文件夹]
- 要编辑的规范文件:[确切路径]
- 要创建的规范文件:[确切路径]
- 共享触及的文件:[由其他并行任务触及的文件]
- 命名规则:[来自仓库/计划的命名约束]
- 约束条件:[来自计划的风险]
## 您的任务
**任务 [ID]:[名称]**
位置:[文件路径]
描述:[完整描述]
验收标准:
[来自计划的列表]
验证:
[来自计划的测试或验证]
## 指示
- 对此任务使用 `sparky` 智能体角色;请勿使用任何其他角色。
1. 在编辑之前,检查计划及所有列出的规范路径
2. 针对所有验收标准实施更改
3. 保持工作原子化且可提交
4. 对于每个文件:先读取,再仔细编辑,保留格式
5. 不要创建替代文件名变体;仅使用提供的规范名称
6. 如果您需要触及/创建未列出的路径,请先停止并报告
7. 如果可行,运行验证
8. **一旦完成,立即在 *-plan.md 文件中标记任务已完成!** 并使用以下内容更新:
- 简洁的工作日志
- 修改/创建的文件
- 遇到的错误或注意事项
9. 提交您的工作
- 注意:还有其他智能体与您并行工作,因此仅暂存并提交您处理过的文件。切勿推送。仅提交。
10. 在移交之前,再次检查您是否已更新 *-plan.md 文件并提交了您的工作
11. 返回摘要,包括:
- 修改/创建的文件(确切路径)
- 所做的更改
- 如何满足标准
- 已执行或推迟的验证
## 重要事项
- 注意路径
- 严格遵守规范命名
- 如果遇到阻塞,请停下来并描述
- 专注于此特定任务
步骤 5:验证每次完成
每当子智能体完成时:
- 检查其输出的正确性和完整性。
- 根据该任务的预期结果进行验证。
- 确保计划文件的完成状态和日志已正确更新。
- 失败时重试/上报。
- 保持调度器满载:验证后,如果有空闲槽位,立即启动下一个待处理任务。
步骤 6:最终协调器集成处理
在所有子智能体完成后:
- 解决并行工作的冲突和跨任务破坏。
- 解决重复/变体文件名问题,并统一到规范路径。
- 确保计划已完全且准确地更新。
- 添加或调整测试以覆盖集成/回归漏洞。
- 运行所需的测试。
- 修复失败。
- 重新运行测试直到通过(或报告明确的阻塞项并提供证据)。
完成标准:
- 所有计划任务都已用日志标记为完成
- 集成后的代码库根据计划预期成功构建/通过测试
- 没有因并行执行而引入未解决的路径/名称偏离
调度策略(必需)
- 最大并发子智能体:12
- 如果存在待处理任务且运行计数低于 12:立即启动更多任务
- 不要因关联元数据而暂停
- 持续进行,直到完整计划(或请求的子集)完成并集成
错误处理
- 未找到任务子集:列出可用的任务 ID
- 解析失败:显示尝试的操作,请求澄清
- 跨任务路径歧义:选择一个规范路径,宣布它,并在所有任务提示中强制执行
使用示例
'使用超级集群实施该计划'
/super-swarm-spark plan.md
/super-swarm-spark ./plans/auth-plan.md T1 T2 T4
/super-swarm-spark user-profile-plan.md --tasks T3 T7
执行摘要模板
# 执行摘要
## 分配的任务:[N]
## 并发性
- 最大工作线程:12
- 调度模式:滚动池(持续补充)
### 已完成
- 任务 [ID]: [名称] - [简要总结]
### 问题
- 任务 [ID]: [名称]
- 问题:[出了什么问题]
- 解决方案:[如何解决或需要什么]
### 被阻塞
- 任务 [ID]: [名称]
- 阻塞原因:[阻止完成的原因]
- 后续步骤:[需要发生的事情]
## 集成修复
- [冲突或回归]: [修复措施]
## 新增/更新的测试
- [测试文件]: [新增的测试覆盖范围]
## 验证运行
- [命令]: [通过/失败 + 关键输出]
## 总体状态
[完成情况总结]
## 修改的文件
[已更改文件的列表]
## 后续步骤
[建议]
📄 原始文档
完整文档(英文):
https://skills.sh/am-will/codex-skills/super-swarm-spark
💡 提示:点击上方链接查看 skills.sh 原始英文文档,方便对照翻译。
声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

评论(0)