Claude Codeのコードレビュー機能を試した — マルチエージェントが本当にバグを見つけるのか

Claude Codeのコードレビュー機能を試した — マルチエージェントが本当にバグを見つけるのか

Claude Codeに搭載されたCode Review機能(2026年3月リリース)を実務で使ってみた。マルチエージェント構成の仕組み、プラグイン版とマネージド版の違い、他ツールとの比較、実用的な活用法をまとめる。

エンジニアのゆとです。

2026年3月9日、AnthropicがClaude Code Reviewをリリースした。AIによるコードレビューツールは色々出てきているが、Claude Codeのアプローチは根本的に違う。単一パスでdiffを眺めて「ここ直したら?」と言うのではなく、複数のAIエージェントが並列でコードを調査し、お互いの発見を検証し合ってから報告するという構成。

正直「またAIレビューか…」と思っていたが、触ってみたら想像より実用的だった。仕組み、使い方、他ツールとの違いをまとめる。


そもそも何ができるのか

Claude Code Reviewは2つの形態で提供されている。

プラグイン版(無料) — ローカルのClaude Codeで使える。全ユーザー対象。

# プラグインのインストール
/plugin Marketplace claude-plugins-official code-review Install

# レビュー実行(ターミナルに出力)
/code-review:code-review

# GitHub PRにコメントとして投稿
/code-review:code-review --comment

マネージド版(Team/Enterprise) — GitHubのPRに自動でレビューコメントがつく。claude.aiの管理画面から設定。

個人や小規模チームはプラグイン版一択。マネージド版は1レビューあたり$15-25かかるが、プラグイン版は既存のサブスクリプション内で使える。品質は同じ。


マルチエージェント構成の仕組み

普通のAIレビューツール(Copilotなど)は、PR diffを1回読んで指摘を出す。Claude Code Reviewは違う。

3フェーズで動く

Phase 1: 調査(Dispatch)

複数のエージェントが並列で起動する。それぞれ異なる観点でコードを調べる。

  • バグ・ロジックエラー担当(Opus級モデル)
  • セキュリティ脆弱性担当(Opus級モデル)
  • CLAUDE.md / コーディング規約違反担当(Sonnet級モデル)
  • エッジケース・リグレッション担当

重要なのは、diffだけでなく周辺コードベースも読むこと。「この変更が他のファイルにどう影響するか」まで追える。

Phase 2: 検証(Verification)

ここが他のツールとの最大の違い。Phase 1で見つかった候補を、別のエージェントが検証する。「本当にこれバグ? 実際のコードの挙動を確認して」と。

各指摘に0-100の信頼度スコアがつく。デフォルトでは信頼度80以上のものだけが報告される。つまり「一応言っておくけど…」みたいな曖昧な指摘が大幅に減る。

Phase 3: 報告(Ranking)

重複を除去し、重要度でソートして出力。

マーカー意味
🔴 NormalこのPRで修正すべきバグ
🟡 Nit直した方がいいが、ブロッキングではない
🟣 Pre-existingPRの変更とは関係なく元々あったバグ

各指摘には折りたたみ式の「推論過程」がついていて、なぜその指摘をしたか追える。


Anthropic社内での実績

公式ブログによると、Claude Code Review導入前後でこう変わったらしい。

  • レビューで実質的なコメントがついたPRの割合: 16% → 54%
  • 1,000行超の大きなPR: 84%で指摘あり(平均7.5件)
  • 50行未満の小さなPR: 31%で指摘あり(平均0.5件)
  • 誤検知率: 1%未満

特に印象的なのは、認証サービスの1行変更で「本番環境の認証を壊す潜在バグ」を発見した事例。diffだけ見てたら普通の人間レビューで見逃す類のもの。


REVIEW.mdでカスタマイズする

Claude Code Reviewは2つのファイルを自動的に読む。

CLAUDE.md — 普段のClaude Codeでも使うプロジェクトルール。違反はnitレベルで指摘される。

REVIEW.md — レビュー専用ルール。レビュー時だけ適用される。リポジトリのルートに置く。

# コードレビュー方針

## 必ずチェックすること
- 新しいAPIエンドポイントには対応するインテグレーションテストがあるか
- DBマイグレーションは後方互換性があるか
- 環境変数のハードコーディングがないか

## スキップすること
- src/gen/ 配下の自動生成ファイル
- *.lock ファイルのフォーマット変更のみ

## レビュー言語
- 日本語でレビューしてください

これだけで「うちのチームのルール」に沿ったレビューになる。REVIEW.mdを育てていくと、チーム固有の知見が蓄積されていく。


他のAIレビューツールとの比較

AIコードレビューツールは乱立している。主要なものと比較してみる。

GitHub Copilot Code Review

  • アプローチ: diff単体を1パスで分析
  • 強み: GitHub組み込みで摩擦ゼロ。Copilotユーザーなら追加コストなし
  • 弱み: クロスファイルの影響分析ができない。表面的な指摘が多い
  • 価格: $10-39/月(Copilotに含まれる)

Copilotのレビューは「明らかなtypo」「未使用import」みたいなlintレベルの指摘が中心。アーキテクチャレベルのバグは拾えない。

CodeRabbit

  • アプローチ: diff分析。GitHub、GitLab、Bitbucket、Azure DevOpsに対応
  • 強み: マルチプラットフォーム対応。200万リポ超の実績
  • 弱み: 分析が浅い
  • 価格: $24-30/ユーザー/月

プラットフォーム対応の広さが売り。GitLabを使っているならこれが現実的な選択肢。

Claude Code Review(プラグイン版)

  • アプローチ: マルチエージェント + コードベース全体の文脈
  • 強み: 検証フェーズで誤検知を排除。無料
  • 弱み: 手動トリガー。GitHubのPR自動連携は要マネージド版
  • 価格: $0(既存サブスクに含まれる)

正直、プラグイン版が一番コスパがいい。


実用的な活用パターン

パターン1: マージ前のセルフチェック

PRを出す前に自分でレビューをかける。

# ブランチで作業完了後
/code-review:code-review

他人にレビューを依頼する前に、明らかなバグやロジックミスを潰せる。「レビュー依頼 → 指摘 → 修正 → 再レビュー」のサイクルが1回減る。

パターン2: PRコメントとしてチームに共有

/code-review:code-review --comment

PRにインラインコメントとして投稿される。人間のレビュアーが見る前にAIレビューが終わっている状態を作れる。人間は「AIが見つけられない文脈的な判断」に集中できる。

パターン3: REVIEW.mdを育てる

最初は空のREVIEW.mdを置いて、レビューを繰り返す中で「これは毎回チェックしてほしい」というルールを追記していく。

## 追加ルール(2026-03月更新)
- useEffect内で非同期処理を行う場合、クリーンアップ関数を必ず確認
- APIレスポンスの型にundefinedが含まれうる場合のnullチェック

チームの暗黙知が明文化されていく副次効果もある。

パターン4: 大規模PRの事前スクリーニング

1,000行超のPRを人間がレビューするのは辛い。先にAIレビューで重要な指摘を洗い出しておけば、人間はハイライトされた箇所を中心に見ればいい。

Anthropicの実績では、大規模PRの84%で指摘が見つかっている。


マネージド版は必要か?

マネージド版(Team/Enterprise)は完全自動でPRにレビューがつく。便利だがコストが問題。

  • 平均: $15-25/レビュー
  • 実測値: 70行のPRで$31、大きなGoプロジェクトで$78という報告も
  • 月200 PRのチームだと月$3,000-5,000

プラグイン版は同じ品質で実質無料(既存サブスクの範囲)。レビュー時間も約4分(マネージド版の約20分に対して)。

結論: ほとんどのチームはプラグイン版で十分。マネージド版は「全PRに漏れなくAIレビューを強制したい」大規模組織向け。


セットアップ手順(プラグイン版)

5分で使い始められる。

# 1. Claude Codeを起動

# 2. プラグインをインストール
/plugin
# → Marketplace → claude-plugins-official → code-review → "Install for you"

# 3. プラグインを有効化
/reload-plugins

# 4. レビュー実行
/code-review:code-review

REVIEW.mdを置きたい場合は、リポジトリのルートに作成するだけ。


まとめ

Claude Code Reviewが他のAIレビューツールと違うのは、マルチエージェントによる検証フェーズを持っていること。「AIが指摘して、別のAIが本当にバグか確認する」という二重チェックのおかげで、誤検知率が1%未満に抑えられている。

プラグイン版なら無料で、4分程度でレビューが完了する。REVIEW.mdでチーム固有のルールも定義できる。

AIレビューツールに懐疑的だった自分も、「まずセルフチェックに使う」くらいの温度感なら導入しない理由がない、という感想。

最悪、バグが見つからなくても「AIが一通り見た」という安心感は、深夜のデプロイ前に意外と心強い。

関連記事

CLAUDE.mdの書き方ガイド|実運用で分かった設計パターンとアンチパターン
CLAUDE.mdの書き方ガイド|実運用で分かった設計パターンとアンチパターンCLAUDE.mdを3ヶ月間毎日運用して見えた書き方のコツ。読み込み階層、フォーマットと遵守率の関係、Progressive Disclosure、Auto Memoryとの使い分けを解説。読む →
Claude Code 実践テクニック15選 — 知らないと損する使いこなし術【2026年版】
Claude Code 実践テクニック15選 — 知らないと損する使いこなし術【2026年版】Claude Codeを日常の開発で使い倒すための実践テクニック15選。CLAUDE.md活用、bash連携、自動化パイプライン、デバッグ技法など、公式ドキュメントだけでは分からない実用Tipsをまとめました。読む →
← 記事一覧に戻る