ai-rules handbook Superpowers vs ai-rules 비교 분석

Superpowers vs ai-rules 비교 분석

| 차원 | **Superpowers** | **ai-rules** | |------|----------------|-------------| | 핵심 목표 | AI 에이전트의 **행동 패턴 교정** (워크플로우 강제) | AI 에이전트의 **규칙 배

research docs/research/superpowers-vs-ai-rules.md

분석일: 2026-04-13 대상: obra/superpowers v5.0.7

1. 프로젝트 성격 비교

차원 Superpowers ai-rules
핵심 목표 AI 에이전트의 행동 패턴 교정 (워크플로우 강제) AI 에이전트의 규칙 배포 & 거버넌스 (컴플라이언스)
접근법 Skill 중심 — 상황별 행동 가이드 Rule 중심 — 금지/허용 정책 집합
비유 "코치가 옆에서 방법론을 주입" "법률 체계를 세우고 가드레일을 설치"
배포 형태 Plugin/Marketplace (6개 플랫폼) 내부 sync 스크립트 (YAML 프로파일)
규모 15 skills, 1 agent, hooks 10 core rules, 6 agents, 5 hooks, 15 profiles
라이선스 MIT Private (OSS 준비 중)

핵심 차이:

Superpowers = "어떻게 일하는가" (Process)
ai-rules    = "무엇을 해도 되고 안 되는가" (Policy)

2. Superpowers 아키텍처

스킬 시스템 (15개)

계획 & 설계:

  • brainstorming — 소크라틱 디자인 정제 (의도 탐색 → 접근법 제안 → 설계 제시 → 승인 → 스펙 작성)
  • writing-plans — 2-5분 단위 bite-sized 구현 계획 (정확한 파일 경로, 완성 코드 스니펫, 검증 단계 포함)
  • writing-skills — 메타 스킬: 스킬 자체를 TDD로 작성

실행 & 협업:

  • subagent-driven-development — 태스크당 fresh 서브에이전트 디스패치 + 2단계 리뷰
  • executing-plans — 순차 실행 + 사람 체크포인트
  • dispatching-parallel-agents — 독립 조사를 병렬 실행

코드 품질:

  • test-driven-development — RED-GREEN-REFACTOR 강제
  • requesting-code-review / receiving-code-review — 서브에이전트 리뷰 프로토콜
  • verification-before-completion — "증거 없이 완료 주장 금지"
  • systematic-debugging — 4단계 근본원인 조사 프로세스

Git & 완료:

  • using-git-worktrees — 격리 브랜치 안전 체크
  • finishing-a-development-branch — 머지/PR 가이드
  • using-superpowers — 부트스트랩 스킬 (SessionStart 주입)

멀티 플랫폼 배포

플랫폼 방식 핵심
Claude Code 네이티브 플러그인 (marketplace) SessionStart hook
Cursor 네이티브 플러그인 camelCase hooks
Codex symlink + 스킬 디스커버리 ~/.agents/skills/
OpenCode ESM 플러그인 config hook + message transform
Copilot CLI marketplace + hooks additionalContext
Gemini CLI JSON extension activate_skill tool

핵심 설계 패턴

  1. Single Source of Truth: /skills 디렉토리 하나에 모든 스킬
  2. SessionStart Bootstrap: using-superpowers 스킬이 세션 시작 시 자동 주입
  3. Rationalization Prevention: 각 스킬에 에이전트 변명 방지 테이블 포함
  4. SUBAGENT-STOP: 서브에이전트에서는 부트스트랩 스킬 건너뛰기 (컨텍스트 오염 방지)
  5. Zero-Dependency: 브라우저 컴패니언 서버가 Node.js 빌트인만 사용

3. Superpowers가 잘한 것

A. Skill = 실행 가능한 행동 단위

ai-rules: "TDD 해야 한다" (규칙으로 선언)
superpowers: "RED → GREEN → REFACTOR 순서대로 하라.
             먼저 실패하는 테스트를 작성하고,
             테스트 통과시키고, 리팩터링하라.
             이 순서 안 지키면 이런 변명이 나올 수 있다 → 이렇게 대응하라"

AI 에이전트는 "해라"보다 "이 순서로 이렇게 해라"에 훨씬 잘 반응한다. 각 스킬의 rationalization prevention table이 에이전트가 빠지기 쉬운 함정을 사전 차단.

B. Subagent-Driven Development 실행 프로토콜

  1. Task마다 fresh 서브에이전트 (컨텍스트 오염 방지)
  2. Spec compliance reviewCode quality review (분리된 2단계 리뷰)
  3. 리뷰어에게 세션 히스토리가 아닌 태스크 설명만 전달
  4. 전용 프롬프트: implementer-prompt.md, spec-reviewer-prompt.md, code-quality-reviewer-prompt.md

ai-rules도 10-subagent-patterns에서 역할별 서브에이전트를 정의하지만, 실제 실행 프로토콜 세밀도에서 차이가 있음.

C. 스킬 자체를 TDD로 검증 (메타 TDD)

writing-skills 스킬:

  • RED: 스킬 없이 서브에이전트 돌려 기본 행동의 문제점 수집
  • GREEN: 발견된 문제를 해결하는 스킬 작성
  • REFACTOR: 새로운 허점 발견 → 패치

ai-rules는 규칙 자체의 효과를 체계적으로 테스트하는 메커니즘이 없음.

D. 경량 컨텍스트 부트스트랩

  • Superpowers: using-superpowers 스킬(인덱스 + 호출법)만 주입, 상세는 필요 시 로드
  • ai-rules: CLAUDE.md에 2,500줄+ 전체 규칙을 넣어 컨텍스트 부담 큼

E. Integration Test 인프라

실제 Claude Code 세션 실행 → .jsonl 트랜스크립트 파싱:

  • 스킬 호출 여부
  • 서브에이전트 디스패치 여부
  • 파일 생성, 테스트 통과, 커밋 여부
  • 토큰 비용 분석 (서브에이전트별 캐시 히트율)

F. 엄격한 기여 기준

CLAUDE.md 기여 가이드라인:

  • "94% PR 거부율" 정책
  • 에이전트는 PR 템플릿 전체 읽기, 기존 PR 검색, diff 승인 받기 필수
  • 도메인 특화 스킬, 조작된 콘텐츠, 대량 PR, 포크 전용 변경 금지

4. ai-rules가 잘한 것

강점 설명 Superpowers 대응
R0/R1/R2 가역성 등급 4축 판단 + 확인 문구 재입력 없음
Hook 이중화 Advisory(CLAUDE.md) + Deterministic(hooks) Advisory 의존도 높음
규칙 충돌 매트릭스 7개 시나리오 + 4문장 tie-breaker 없음 (스킬 우선순위만)
프로젝트별 프로파일 15개 프로젝트에 다른 규칙 조합 One-size-fits-all
세션 관리 SESSION.md HANDOFF + ACTIVE_WORK.md + Daily report 없음
DB 안전 규칙 실제 사고 기반 07-db (2026-04-01 사례) DB 관련 가드 없음
디자인 시스템 09-design 한국 서비스 UI 패턴, AI 기본값 금지 범위 밖
멀티 도구 adapter 7개 adapter (claude-code, cursor, windsurf, openclaw, plain, governance, tooling) 6개 플랫폼 플러그인
Viewer Astro 기반 규칙 브라우저 웹앱 없음
거버넌스 프리셋 solo/small-team/saas 프리셋 없음

5. 보완 제안

[높음] Skill 패턴 도입

현재 .claude/commands/에 2개만 존재. 핵심 워크플로우를 스킬로 승격:

현재 규칙 스킬 후보 기대 효과
04-workflow Plan Mode planning 진입→분석→계획→승인 프로세스 가이드
04-workflow Failure Protocol debugging 4단계 진단 프로세스
01-git 커밋 프로세스 commit-review 브랜치 확인→diff→커밋→push 흐름
10-subagent reviewer code-review PR 전 리뷰 표준화

[높음] Rationalization Prevention Table 추가

각 규칙에 에이전트가 빠지기 쉬운 함정 명시:

## 변명 방지 테이블 (01-git 예시)
| 에이전트 변명 | 현실 | 올바른 행동 |
|-------------|------|-----------|
| "급한 수정이라 main에 바로 커밋" | 급해도 브랜치 생성은 10초 | git checkout -b feature/... |
| "한 줄 수정이라 괜찮을 것" | 한 줄도 hook이 차단함 | feature 브랜치 사용 |
| "이미 커밋했으니 push하면 됨" | push 전 브랜치 재확인 필수 | git branch --show-current |

[중간] 스킬 효과 테스트 프레임워크

메타 TDD 패턴 차용:

  1. 규칙 없이 에이전트 돌려 위반 패턴 수집
  2. 규칙 적용 후 동일 시나리오 재실행
  3. 위반율 비교 → 효과 측정

[중간] SessionStart 컨텍스트 경량화

CLAUDE.md를 인덱스 + 핵심 금지사항으로 줄이고, 상세 규칙은 스킬/커맨드로 분리. Superpowers의 using-superpowers 패턴 참고.

[중간] 2단계 리뷰 프로토콜

agents/base-reviewer.md를 spec compliance + code quality로 분리:

  • spec-reviewer — INTENT.md 범위 준수, API 시그니처 일치
  • code-reviewer — 코드 품질, 보안, 성능

[낮음] Plugin/Marketplace 배포

OSS 공개 시 Claude Code marketplace 등록 검토. 현재 adapter 구조가 이미 플러그인 배포에 적합.


6. 결론

관점 Superpowers ai-rules
행동 교정 A+ (스킬 기반 프로세스 강제) B (규칙 선언만)
거버넌스 C (없음) A+ (가역성, 충돌 매트릭스, hook)
프로젝트 적응 C (one-size-fits-all) A (프로파일 기반)
테스트 가능성 A (integration test 인프라) D (없음)
컨텍스트 효율 A (경량 부트스트랩) C (2,500줄+ 전체 주입)
플랫폼 배포 A (marketplace) B+ (sync 기반)

가장 큰 보완 기회: 규칙(Policy)을 프로세스(Skill)로 변환하면 양쪽 강점을 합칠 수 있음.