解説
さらに詳しく解説
AIセーフティ・インスティテュートとは
AIセーフティ・インスティテュート(AI Safety Institute、AISI)は、AIの安全性に関する評価・研究を行う政府機関です。日本ではIPA(情報処理推進機構)内に2024年2月に設立されました。
主な活動
レッドチーミング手法ガイド
レッドチーミングの手法を体系的にまとめたガイドを公開しています。RAGシステムに対する実践的なレッドチーミングの手順も詳細に解説されています。
AI安全性の評価
AIシステムのリスク評価手法の研究や、安全性テストの実施を行っています。
国際連携
英国、米国など各国のAI安全性機関と連携し、グローバルなAI安全基準の策定に貢献しています。
背景
広島AIプロセスやAI基本法の流れの中で、AIの安全性確保が国の重要政策として位置づけられ、設立されました。
関連する取り組み
- AI事業者ガイドラインの策定支援
- AI安全性に関する技術標準の研究
- 産学官連携によるAI安全性の向上
この用語が登場した記事(2件)
2026年AI本格普及へ。中小企業経営者が知っておくべき「支援」と「責任」
政府は2026年を「AI社会実装の本格普及期」と定め、新たな基本計画を発表しました。中小企業にとっては、手厚い補助金でロボット導入を進める好機である一方、取引先からAI管理体制を問われる時代が到来します。本記事では、経営者が押さえるべき支援策と対応ポイントを解説します。
日ASEANで合意!「信頼できるAI」共同声明は中小企業の海外展開をどう変える?
総務省は1月15日、日ASEANデジタル大臣会合で「信頼できるAI」推進の共同声明を採択しました。2026年度に向けた協力方針も決定し、日本主導のAIルールがASEAN全域へ拡大します。これにより中小企業の海外展開がどう有利になるのか、活用できる補助金情報と併せて解説します。
