メインコンテンツへスキップ
AI用語集に戻る
AI用語

AIセーフティ・インスティテュート

AI Safety Institute

解説

AIセーフティ・インスティテュートとは、AIの安全性を評価・確保するために日本や欧米の政府が設立した機関です。高度なAIのリスクを検証し、安全に活用するための基準作りを担います。中小企業がAIを導入する際、その技術が信頼できるか判断する指針を提供し、社会全体の安全なAI普及を支える役割を果たします。

さらに詳しく解説

AIセーフティ・インスティテュートとは

AIセーフティ・インスティテュート(AI Safety Institute、AISI)は、AIの安全性に関する評価・研究を行う政府機関です。日本ではIPA(情報処理推進機構)内に2024年2月に設立されました。

主な活動

レッドチーミング手法ガイド

レッドチーミングの手法を体系的にまとめたガイドを公開しています。RAGシステムに対する実践的なレッドチーミングの手順も詳細に解説されています。

AI安全性の評価

AIシステムのリスク評価手法の研究や、安全性テストの実施を行っています。

国際連携

英国、米国など各国のAI安全性機関と連携し、グローバルなAI安全基準の策定に貢献しています。

背景

広島AIプロセスAI基本法の流れの中で、AIの安全性確保が国の重要政策として位置づけられ、設立されました。

関連する取り組み

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する