解説
さらに詳しく解説
ハルシネーション(Hallucination)は、AIが事実と異なる情報や存在しない情報をあたかも真実のように生成する現象です。LLMの重要な課題の一つであり、信頼性向上のための研究が進んでいます。
ハルシネーションの種類
1. 事実の誤り
実際には存在しない事実を述べる
| 例 | 内容 |
|---|---|
| 架空の人物 | 存在しない著者を引用 |
| 誤った日付 | イベントの日付が間違い |
| 架空の統計 | 存在しないデータを提示 |
2. 論理的誤り
推論過程での誤り
3. 文脈の無視
与えられた情報を無視した回答
ハルシネーションの原因
| 原因 | 説明 |
|---|---|
| 学習データの限界 | 古い・不完全な情報 |
| 確率的生成 | もっともらしい文を生成 |
| 過信 | 不確実でも断定的に回答 |
| 知識の混同 | 類似情報の混同 |
対策技術
1. グラウンディング
外部の信頼できる情報源を参照
2. RAG(検索拡張生成)
関連文書を検索してコンテキストに追加
3. 自己一貫性チェック
複数回の生成で一貫性を確認
4. 不確実性の表明
確信度の低い情報を明示
各社の対策
ユーザーの対策
1. 検証の習慣
- 重要な情報は別途確認
- 複数の情報源を参照
- 専門家に確認
2. プロンプトの工夫
「わからない場合は"わかりません"と答えてください」
「出典を明記してください」
「推測の場合はその旨を示してください」ハルシネーションの評価
ベンチマーク
| ベンチマーク | 評価対象 |
|---|---|
| TruthfulQA | 真実性 |
| HaluEval | ハルシネーション検出 |
| FEVER | 事実検証 |
ビジネスでの影響
| 影響 | 対応 |
|---|---|
| 信頼性リスク | 人間による検証 |
| 法的リスク | 免責事項の明示 |
| 品質リスク | QAプロセスの整備 |
今後の展望
ハルシネーションへの対処は、AIの信頼性向上において最も重要な課題の一つです。
