解説

さらに詳しく解説
AIセーフティ・インスティテュートとは
AIセーフティ・インスティテュート(AI Safety Institute、AISI)は、AIの安全性に関する評価・研究を行う政府機関です。日本ではIPA(情報処理推進機構)内に2024年2月に設立されました。
主な活動
レッドチーミング手法ガイド
レッドチーミングの手法を体系的にまとめたガイドを公開しています。RAGシステムに対する実践的なレッドチーミングの手順も詳細に解説されています。
AI安全性の評価
AIシステムのリスク評価手法の研究や、安全性テストの実施を行っています。
国際連携
英国、米国など各国のAI安全性機関と連携し、グローバルなAI安全基準の策定に貢献しています。
背景
広島AIプロセスやAI基本法の流れの中で、AIの安全性確保が国の重要政策として位置づけられ、設立されました。
関連する取り組み
- AI事業者ガイドラインの策定支援
- AI安全性に関する技術標準の研究
- 産学官連携によるAI安全性の向上
