解説
さらに詳しく解説
ハルシネーション(Hallucination)は、AIが事実と異なる情報や存在しない情報をあたかも真実のように生成する現象です。LLMの重要な課題の一つであり、信頼性向上のための研究が進んでいます。
ハルシネーションの種類
1. 事実の誤り
実際には存在しない事実を述べる
| 例 | 内容 |
|---|---|
| 架空の人物 | 存在しない著者を引用 |
| 誤った日付 | イベントの日付が間違い |
| 架空の統計 | 存在しないデータを提示 |
2. 論理的誤り
推論過程での誤り
3. 文脈の無視
与えられた情報を無視した回答
ハルシネーションの原因
| 原因 | 説明 |
|---|---|
| 学習データの限界 | 古い・不完全な情報 |
| 確率的生成 | もっともらしい文を生成 |
| 過信 | 不確実でも断定的に回答 |
| 知識の混同 | 類似情報の混同 |
対策技術
1. [グラウンディング](/glossary/grounding)
外部の信頼できる情報源を参照
2. [RAG](/glossary/rag)(検索拡張生成)
関連文書を検索してコンテキストに追加
3. 自己一貫性チェック
複数回の生成で一貫性を確認
4. 不確実性の表明
確信度の低い情報を明示
各社の対策
ユーザーの対策
1. 検証の習慣
- 重要な情報は別途確認
- 複数の情報源を参照
- 専門家に確認
2. [プロンプト](/glossary/prompt)の工夫
「わからない場合は"わかりません"と答えてください」
「出典を明記してください」
「推測の場合はその旨を示してください」ハルシネーションの評価
ベンチマーク
| ベンチマーク | 評価対象 |
|---|---|
| TruthfulQA | 真実性 |
| HaluEval | ハルシネーション検出 |
| FEVER | 事実検証 |
ビジネスでの影響
| 影響 | 対応 |
|---|---|
| 信頼性リスク | 人間による検証 |
| 法的リスク | 免責事項の明示 |
| 品質リスク | QAプロセスの整備 |
今後の展望
ハルシネーションへの対処は、AIの信頼性向上において最も重要な課題の一つです。
この用語が登場した記事(17件)
文章作成が苦手なひとり店長へ。AI店員を雇って「売れる」商品紹介を自動化する実践テクニック【2026年最新版】
実店舗の接客とEC運営を兼務する忙しい店長必見。生成AIを活用して、ブランドの「らしさ」を保ちながら商品紹介文やSNS投稿を自動化する方法を解説します。大手企業の成功事例から、明日から使える具体的なChatGPTプロンプトまで、業務時間を半減させる実践テクニックを公開。
Google AI Studioに「Gemini 3 Pro」統合!5つの新機能で自社専用AIを作る方法
Google AI Studioに最新モデル「Gemini 3 Pro」と5つの強力なツールが統合されました。Google検索連携やコード実行など、これまでエンジニアが必要だった高度な機能をノーコードで利用可能に。中小企業が自社専用のAIエージェントを開発するための手順と活用法を解説します。
【2025年最新】AI事業者ガイドライン更新!中小企業が今すぐやるべき3つのこと
2025年3月、経済産業省と総務省による「AI事業者ガイドライン」が第1.1版へアップデートされました。法的拘束力はありませんが、取引先からの信頼に関わる重要な指針です。中小企業が「AI利用者」として整備すべき社内ルールや、活用できる補助金についてわかりやすく解説します。
