什么是 quality-reflective-questions?
提供反思性提问框架来挑战有关工作完整性的假设, 在标记为“完成”之前捕获不完整的实现。在声明功能之前使用 在将 ADR 转为已完成状态之前、在自我审查期间或在宣布工作时完成 完成了。触发“这真的完成了吗”、“自我审查我的工作”、“挑战我的假设”、 “验证完整性”,或在标记任务完成之前主动进行。适用于任何类型 实施工作。加强对集成、测试和执行证明的批判性思考。 来源:dawiddutoit/custom-claude。
提供反思性提问框架来挑战有关工作完整性的假设, 在标记为“完成”之前捕获不完整的实现。在声明功能之前使用 在将 ADR 转为已完成状态之前、在自我审查期间或在宣布工作时完成 完成了。触发“这真的完成了吗”、“自我审查我的工作”、“挑战我的假设”、 “验证完整性”,或在标记任务完成之前主动进行。适用于任何类型 实施工作。加强对集成、测试和执行证明的批判性思考。
通过命令行快速安装 quality-reflective-questions AI 技能到你的开发环境
来源:dawiddutoit/custom-claude。
Before marking ANYTHING as "done", ask yourself these questions and provide HONEST answers:
If you cannot answer ALL FOUR with specific, concrete details, the work is NOT complete.
❌ Bad (vague): "It's integrated" → ✅ Good (specific): "Imported in builder.py line 45" ❌ Bad (vague): "It works" → ✅ Good (specific): "Logs show execution at 10:30:45" ❌ Bad (vague): "Tests pass" → ✅ Good (specific): "46 unit tests + 2 integration tests pass"
提供反思性提问框架来挑战有关工作完整性的假设, 在标记为“完成”之前捕获不完整的实现。在声明功能之前使用 在将 ADR 转为已完成状态之前、在自我审查期间或在宣布工作时完成 完成了。触发“这真的完成了吗”、“自我审查我的工作”、“挑战我的假设”、 “验证完整性”,或在标记任务完成之前主动进行。适用于任何类型 实施工作。加强对集成、测试和执行证明的批判性思考。 来源:dawiddutoit/custom-claude。
为搜索与 AI 引用准备的稳定字段与命令。
npx skills add https://github.com/dawiddutoit/custom-claude --skill quality-reflective-questions提供反思性提问框架来挑战有关工作完整性的假设, 在标记为“完成”之前捕获不完整的实现。在声明功能之前使用 在将 ADR 转为已完成状态之前、在自我审查期间或在宣布工作时完成 完成了。触发“这真的完成了吗”、“自我审查我的工作”、“挑战我的假设”、 “验证完整性”,或在标记任务完成之前主动进行。适用于任何类型 实施工作。加强对集成、测试和执行证明的批判性思考。 来源:dawiddutoit/custom-claude。
打开你的终端或命令行工具(如 Terminal、iTerm、Windows Terminal 等) 复制并运行以下命令:npx skills add https://github.com/dawiddutoit/custom-claude --skill quality-reflective-questions 安装完成后,技能将自动配置到你的 AI 编程环境中,可以在 Claude Code、Cursor 或 OpenClaw 中使用
https://github.com/dawiddutoit/custom-claude