メインコンテンツへスキップ
AI用語集に戻る
AI用語

ハルシネーション

Hallucination

解説

AIが事実に基づかない、もっともらしい嘘(誤情報)を生成する現象のことです。大規模言語モデルが確率的に言葉を繋ぎ合わせる性質上発生します。ビジネス利用では、生成された内容に誤りがないか、必ず人間がファクトチェックを行うことが推奨されています。

さらに詳しく解説

ハルシネーション(Hallucination)は、AIが事実と異なる情報や存在しない情報をあたかも真実のように生成する現象です。LLMの重要な課題の一つであり、信頼性向上のための研究が進んでいます。

ハルシネーションの種類

1. 事実の誤り

実際には存在しない事実を述べる

内容
架空の人物存在しない著者を引用
誤った日付イベントの日付が間違い
架空の統計存在しないデータを提示

2. 論理的誤り

推論過程での誤り

3. 文脈の無視

与えられた情報を無視した回答

ハルシネーションの原因

原因説明
学習データの限界古い・不完全な情報
確率的生成もっともらしい文を生成
過信不確実でも断定的に回答
知識の混同類似情報の混同

対策技術

1. [グラウンディング](/glossary/grounding)

外部の信頼できる情報源を参照

2. [RAG](/glossary/rag)(検索拡張生成)

関連文書を検索してコンテキストに追加

3. 自己一貫性チェック

複数回の生成で一貫性を確認

4. 不確実性の表明

確信度の低い情報を明示

各社の対策

企業対策
OpenAIGPTの継続的改善
AnthropicConstitutional AI
Google検索グラウンディング

ユーザーの対策

1. 検証の習慣

  • 重要な情報は別途確認
  • 複数の情報源を参照
  • 専門家に確認

2. [プロンプト](/glossary/prompt)の工夫

「わからない場合は"わかりません"と答えてください」
「出典を明記してください」
「推測の場合はその旨を示してください」

ハルシネーションの評価

ベンチマーク

ベンチマーク評価対象
TruthfulQA真実性
HaluEvalハルシネーション検出
FEVER事実検証

ビジネスでの影響

影響対応
信頼性リスク人間による検証
法的リスク免責事項の明示
品質リスクQAプロセスの整備

今後の展望

ハルシネーションへの対処は、AIの信頼性向上において最も重要な課題の一つです。

この用語が登場した記事(17件)

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する