解説
さらに詳しく解説
AIハルシネーションとは
AIハルシネーション(AI Hallucination)は、AIが事実に基づかない情報をあたかも正しいかのように生成する現象です。大規模言語モデルの根本的な課題の一つです。
発生の仕組み
LLMは学習データのパターンに基づいて「もっともらしい」テキストを生成します。この統計的予測の性質上、学習データにない事実や、誤った組み合わせの情報を生成することがあります。
具体的な例
- 存在しない論文や書籍の引用
- 架空の人物や出来事の記述
- 正確そうに見える間違った数値や統計
対策
- **RAG**: 外部データベースの情報を参照して回答の精度を向上
- **ファクトチェック**: AIの出力を人間や別のシステムで検証
- **プロンプト設計**: 不確かな場合は「わからない」と回答させる指示
ビジネスでの注意点
AIの出力を鵜呑みにせず、重要な意思決定では必ず人間による検証を行うことが重要です。
