Claude Code /ultrareview とは?マルチエージェントが並列でバグを狩るコードレビューの全貌

コードレビューに"並列AI"が来た

2026年4月16日、AnthropicはClaude Opus 4.7と同時に、Claude Code の新しいスラッシュコマンド /ultrareview をリリースしました。

このコマンドが従来のAIレビューツールと一線を画すのは、複数のレビュアーエージェントがクラウド上のサンドボックスで並列動作し、"再現確認できたバグだけ"を報告するという設計思想にあります。

「AIがコードを読んで指摘する」ではなく、「AIがコードを実際に動かして問題を再現する」。この違いが、1%未満という驚異的な誤検知率につながっています。


/ultrareview の仕組み

クラウドサンドボックスで並列実行

/ultrareview を実行すると、Claude Code はローカルではなくクラウド上のリモートサンドボックスに複数のエージェントを起動します。処理の流れは以下のとおりです。

  1. 現在のブランチ状態をクラウドにアップロード(またはGitHub PR番号を指定するとPRを直接クローン)
  2. 複数のレビュアーエージェントが異なる視点で並列レビューを実行
  3. 各エージェントが発見した問題をサンドボックス内で再現検証
  4. 再現確認できた問題だけをまとめてレポート

4つの視点で並列チェック

各エージェントは担当領域が分かれており、同時進行でレビューします。

エージェント チェック内容
ロジックレビュアー アルゴリズムの誤り、制御フローのバグ
エッジケースレビュアー 境界値、null/undefined、空配列などの例外処理
セキュリティレビュアー 認証バイパス、SQLインジェクション、XSSなど
パフォーマンスレビュアー 無駄なループ、N+1クエリ、メモリリーク

重要なのは「検証できなかった問題はリストに載せない」というルールです。エージェントが問題を疑っても、サンドボックス内で再現できなければ報告対象になりません。これが誤検知率の低さを支えています。


コマンドの使い方

基本:現在のブランチをレビュー

/ultrareview

作業中のブランチをそのままレビュー対象にします。ローカルの変更はクラウドにアップロードされ、エージェントが起動します。

PR番号を指定してレビュー

/ultrareview 123

GitHub のPR番号を指定すると、そのPRのコードをクローンして対象にします。レビュー前にPRをマージする必要はなく、オープン中のPRをそのまま渡せます。

実行要件

  • Claude Code v2.1.86 以降
  • Claude.ai にログイン済みであること
  • Pro または Max プラン(無料プランは非対応)

検出精度:数字で見る性能

Anthropicは自社のほぼ全PRに /ultrareview を導入しており、社内データとして以下の実績を公開しています。

PRの規模 バグ検出率 平均検出件数
1000行以上 84% 平均 7.5件
50行未満 31% 平均 0.5件

そして最も注目すべき指標が誤検知率1%未満です。エンジニアが「この指摘は不正確だ」と評価した割合が1%を下回るということは、報告される問題のほぼ全てが実際に対処する価値のあるものだということを意味します。

大規模なPRほど効果が高く、機能追加・リファクタリングなど変更量の多いレビューで特に力を発揮します。


料金と使い分け

無料枠と課金ルール

プラン 無料枠 無料枠以降
Pro 3回(1アカウント一度限り、リフレッシュなし) extra usage で課金
Max 3回(同上) extra usage で課金

無料枠の3回は永続的な上限です。毎月リセットされるものではなく、消費したら終わりです。4回目以降は extra usage を有効化した上で、1回あたり $5〜$20 の費用がかかります(変更量による変動制)。

ローカルレビューとの使い分け

Claude Code には /ultrareview の他に、ローカルで動作する /code-review スキルもあります。

機能 実行環境 費用 向いているケース
/ultrareview クラウド(並列) $5〜$20/回 大規模PR、本番前の最終確認
/code-review ローカル $0 日常的な軽微な変更のチェック

毎回 /ultrareview を使うと費用がかさみます。日常的なレビューはローカルの /code-review で賄い、大きな機能追加や重要なリリース前など、バグの見落としが許されない場面に絞って /ultrareview を使うという使い分けが現実的です。


競合ツールとの違い

コードレビューAIとしては CodeRabbit や Greptile といったツールも存在しますが、アプローチが異なります。

CodeRabbitはPRが作成・更新されるたびに自動でコメントを付ける「継続的監視型」です。CI/CDパイプラインに統合しやすく、常時監視したいチームに向いています。

Greptileはリポジトリ全体のコードベースを把握した上でレビューするため、「このコードは他のモジュールと矛盾している」といったシステム横断的な指摘が得意です。

ultrareviewの独自性は「バグを実際に再現してから報告する」という検証ステップにあります。これにより、ノイズが少なく、開発者が報告を信頼して行動できます。Anthropicが自社で本番導入しているという実績も、信頼性の根拠になっています。


実際に使うときの注意点

extra usage の事前有効化

無料枠3回を使い切った後に /ultrareview を実行しても、extra usage が有効になっていなければエラーで止まります。継続して使う予定があるなら、Claude.ai のアカウント設定で extra usage を有効化しておくと詰まりません。

レビュー対象の範囲

クラウドサンドボックスにアップロードされるのはコードのみです。.envファイルや認証情報をgit管理していなければ、アップロードされる心配はありません。ただし、機密情報をリポジトリにコミットしている場合は事前に除外設定を確認してください。

バージョン確認

v2.1.86未満のClaude Codeでは /ultrareview コマンド自体が存在しません。コマンドが認識されない場合はまずバージョンを確認してください。

claude --version

まとめ

/ultrareview は、AIコードレビューの弱点だった「誤検知が多くて信頼できない」という問題に正面から取り組んだツールです。バグを再現確認してから報告するというアプローチは、エンジニアの認知負荷を下げ、AIの指摘を"無視していいノイズ"ではなく"対処すべき情報"に変えます。

大規模PRで84%のバグ検出、誤検知率1%未満という数字は、実際にAnthropicが全社導入して得た実績です。費用($5〜$20/回)はかかりますが、本番障害のリスクと比べれば十分に検討できる選択肢です。

無料枠3回の使いどころを慎重に選びながら、まずは自分の大きなPRで試してみることをおすすめします。