解説
さらに詳しく解説
信頼できるAIとは
信頼できるAI(Trustworthy AI)は、安全性、公平性、透明性、プライバシー保護などの要件を満たし、社会から信頼されるAIシステムを目指す概念です。
主要な要件
安全性
- AIシステムが意図した通りに動作すること
- 予期しない動作による被害の防止
- レッドチーミングによる脆弱性の検証
公平性
- 特定の属性に基づく差別的な出力の防止
- 学習データのバイアスの検証・是正
- 多様なユーザーへの公平な対応
透明性
- AIの判断根拠の説明可能性
- AIの利用であることの明示
- 意思決定プロセスの開示
プライバシー保護
- 個人データの適切な取り扱い
- データの最小化原則
- オプトアウトの権利の保障
国際的な枠組み
- EU AI Act: リスクベースの規制
- OECD AI原則: AI開発の国際ガイドライン
- 日本 AI事業者ガイドライン: 事業者向けの指針
AIの安全性との関連
信頼できるAIは、安全性だけでなく、公平性・透明性・プライバシーなどを包括的に含む、より広い概念です。
