Claude Codeのコードレビュー機能を試した — マルチエージェントが本当にバグを見つけるのか
Claude Codeに搭載されたCode Review機能(2026年3月リリース)を実務で使ってみた。マルチエージェント構成の仕組み、プラグイン版とマネージド版の違い、他ツールとの比較、実用的な活用法をまとめる。
エンジニアのゆとです。
2026年3月9日、AnthropicがClaude Code Reviewをリリースした。AIによるコードレビューツールは色々出てきているが、Claude Codeのアプローチは根本的に違う。単一パスでdiffを眺めて「ここ直したら?」と言うのではなく、複数のAIエージェントが並列でコードを調査し、お互いの発見を検証し合ってから報告するという構成。
正直「またAIレビューか…」と思っていたが、触ってみたら想像より実用的だった。仕組み、使い方、他ツールとの違いをまとめる。
そもそも何ができるのか
Claude Code Reviewは2つの形態で提供されている。
プラグイン版(無料) — ローカルのClaude Codeで使える。全ユーザー対象。
# プラグインのインストール
/plugin → Marketplace → claude-plugins-official → code-review → Install
# レビュー実行(ターミナルに出力)
/code-review:code-review
# GitHub PRにコメントとして投稿
/code-review:code-review --comment
マネージド版(Team/Enterprise) — GitHubのPRに自動でレビューコメントがつく。claude.aiの管理画面から設定。
個人や小規模チームはプラグイン版一択。マネージド版は1レビューあたり$15-25かかるが、プラグイン版は既存のサブスクリプション内で使える。品質は同じ。
マルチエージェント構成の仕組み
普通のAIレビューツール(Copilotなど)は、PR diffを1回読んで指摘を出す。Claude Code Reviewは違う。
3フェーズで動く
Phase 1: 調査(Dispatch)
複数のエージェントが並列で起動する。それぞれ異なる観点でコードを調べる。
- バグ・ロジックエラー担当(Opus級モデル)
- セキュリティ脆弱性担当(Opus級モデル)
- CLAUDE.md / コーディング規約違反担当(Sonnet級モデル)
- エッジケース・リグレッション担当
重要なのは、diffだけでなく周辺コードベースも読むこと。「この変更が他のファイルにどう影響するか」まで追える。
Phase 2: 検証(Verification)
ここが他のツールとの最大の違い。Phase 1で見つかった候補を、別のエージェントが検証する。「本当にこれバグ? 実際のコードの挙動を確認して」と。
各指摘に0-100の信頼度スコアがつく。デフォルトでは信頼度80以上のものだけが報告される。つまり「一応言っておくけど…」みたいな曖昧な指摘が大幅に減る。
Phase 3: 報告(Ranking)
重複を除去し、重要度でソートして出力。
| マーカー | 意味 |
|---|---|
| 🔴 Normal | このPRで修正すべきバグ |
| 🟡 Nit | 直した方がいいが、ブロッキングではない |
| 🟣 Pre-existing | PRの変更とは関係なく元々あったバグ |
各指摘には折りたたみ式の「推論過程」がついていて、なぜその指摘をしたか追える。
Anthropic社内での実績
公式ブログによると、Claude Code Review導入前後でこう変わったらしい。
- レビューで実質的なコメントがついたPRの割合: 16% → 54%
- 1,000行超の大きなPR: 84%で指摘あり(平均7.5件)
- 50行未満の小さなPR: 31%で指摘あり(平均0.5件)
- 誤検知率: 1%未満
特に印象的なのは、認証サービスの1行変更で「本番環境の認証を壊す潜在バグ」を発見した事例。diffだけ見てたら普通の人間レビューで見逃す類のもの。
REVIEW.mdでカスタマイズする
Claude Code Reviewは2つのファイルを自動的に読む。
CLAUDE.md — 普段のClaude Codeでも使うプロジェクトルール。違反はnitレベルで指摘される。
REVIEW.md — レビュー専用ルール。レビュー時だけ適用される。リポジトリのルートに置く。
# コードレビュー方針
## 必ずチェックすること
- 新しいAPIエンドポイントには対応するインテグレーションテストがあるか
- DBマイグレーションは後方互換性があるか
- 環境変数のハードコーディングがないか
## スキップすること
- src/gen/ 配下の自動生成ファイル
- *.lock ファイルのフォーマット変更のみ
## レビュー言語
- 日本語でレビューしてください
これだけで「うちのチームのルール」に沿ったレビューになる。REVIEW.mdを育てていくと、チーム固有の知見が蓄積されていく。
他のAIレビューツールとの比較
AIコードレビューツールは乱立している。主要なものと比較してみる。
GitHub Copilot Code Review
- アプローチ: diff単体を1パスで分析
- 強み: GitHub組み込みで摩擦ゼロ。Copilotユーザーなら追加コストなし
- 弱み: クロスファイルの影響分析ができない。表面的な指摘が多い
- 価格: $10-39/月(Copilotに含まれる)
Copilotのレビューは「明らかなtypo」「未使用import」みたいなlintレベルの指摘が中心。アーキテクチャレベルのバグは拾えない。
CodeRabbit
- アプローチ: diff分析。GitHub、GitLab、Bitbucket、Azure DevOpsに対応
- 強み: マルチプラットフォーム対応。200万リポ超の実績
- 弱み: 分析が浅い
- 価格: $24-30/ユーザー/月
プラットフォーム対応の広さが売り。GitLabを使っているならこれが現実的な選択肢。
Claude Code Review(プラグイン版)
- アプローチ: マルチエージェント + コードベース全体の文脈
- 強み: 検証フェーズで誤検知を排除。無料
- 弱み: 手動トリガー。GitHubのPR自動連携は要マネージド版
- 価格: $0(既存サブスクに含まれる)
正直、プラグイン版が一番コスパがいい。
実用的な活用パターン
パターン1: マージ前のセルフチェック
PRを出す前に自分でレビューをかける。
# ブランチで作業完了後
/code-review:code-review
他人にレビューを依頼する前に、明らかなバグやロジックミスを潰せる。「レビュー依頼 → 指摘 → 修正 → 再レビュー」のサイクルが1回減る。
パターン2: PRコメントとしてチームに共有
/code-review:code-review --comment
PRにインラインコメントとして投稿される。人間のレビュアーが見る前にAIレビューが終わっている状態を作れる。人間は「AIが見つけられない文脈的な判断」に集中できる。
パターン3: REVIEW.mdを育てる
最初は空のREVIEW.mdを置いて、レビューを繰り返す中で「これは毎回チェックしてほしい」というルールを追記していく。
## 追加ルール(2026-03月更新)
- useEffect内で非同期処理を行う場合、クリーンアップ関数を必ず確認
- APIレスポンスの型にundefinedが含まれうる場合のnullチェック
チームの暗黙知が明文化されていく副次効果もある。
パターン4: 大規模PRの事前スクリーニング
1,000行超のPRを人間がレビューするのは辛い。先にAIレビューで重要な指摘を洗い出しておけば、人間はハイライトされた箇所を中心に見ればいい。
Anthropicの実績では、大規模PRの84%で指摘が見つかっている。
マネージド版は必要か?
マネージド版(Team/Enterprise)は完全自動でPRにレビューがつく。便利だがコストが問題。
- 平均: $15-25/レビュー
- 実測値: 70行のPRで$31、大きなGoプロジェクトで$78という報告も
- 月200 PRのチームだと月$3,000-5,000
プラグイン版は同じ品質で実質無料(既存サブスクの範囲)。レビュー時間も約4分(マネージド版の約20分に対して)。
結論: ほとんどのチームはプラグイン版で十分。マネージド版は「全PRに漏れなくAIレビューを強制したい」大規模組織向け。
セットアップ手順(プラグイン版)
5分で使い始められる。
# 1. Claude Codeを起動
# 2. プラグインをインストール
/plugin
# → Marketplace → claude-plugins-official → code-review → "Install for you"
# 3. プラグインを有効化
/reload-plugins
# 4. レビュー実行
/code-review:code-review
REVIEW.mdを置きたい場合は、リポジトリのルートに作成するだけ。
まとめ
Claude Code Reviewが他のAIレビューツールと違うのは、マルチエージェントによる検証フェーズを持っていること。「AIが指摘して、別のAIが本当にバグか確認する」という二重チェックのおかげで、誤検知率が1%未満に抑えられている。
プラグイン版なら無料で、4分程度でレビューが完了する。REVIEW.mdでチーム固有のルールも定義できる。
AIレビューツールに懐疑的だった自分も、「まずセルフチェックに使う」くらいの温度感なら導入しない理由がない、という感想。
最悪、バグが見つからなくても「AIが一通り見た」という安心感は、深夜のデプロイ前に意外と心強い。
関連記事

