メインコンテンツへスキップ
AI用語集に戻る
AI用語

レッドチーミング

Red Teaming

解説

Red Teamingとは、AIの安全性を高めるため、攻撃者の視点でシステムの弱点や欠陥をあえて探し出す手法です。悪意ある操作を想定したテストを行い、差別的な回答や情報漏洩などのリスクを事前に特定します。国際的な「信頼できるAI」の基準でも重視されており、企業の海外展開における信頼確保に不可欠な工程となっています。

さらに詳しく解説

レッドチーミングとは

レッドチーミング(Red Teaming)は、攻撃者の視点からAIシステムの脆弱性や安全性の不備を発見・評価する手法です。従来のサイバーセキュリティ分野で使われてきた概念をAI安全性の評価に応用したものです。

目的

実施方法

人間によるテスト

専門家がAIシステムに対して様々な攻撃パターンを試行し、脆弱性を発見します。多言語攻撃やロールプレイなど創造的なアプローチも含まれます。

自動化されたテスト

攻撃パターンを自動生成し、大量のテストケースを効率的に実行します。AnthropicOpenAIが活用している手法です。

ハイブリッド型

人間と自動化の両方を組み合わせることで、どちらか一方では見つけられない脆弱性を発見します。

日本の取り組み

AIセーフティ・インスティテュート(AISI)

IPA(情報処理推進機構)が「AIセーフティに関するレッドチーミング手法ガイド」を公開しています。RAGシステムに対するレッドチーミングの手順も詳細に解説されています。

国際的な位置づけ

EU AI Act広島AIプロセス成果文書においても、テスト・評価手法としてレッドチーミングが明記されています。AI開発における標準的な安全性評価手法として定着しつつあります。

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する