メインコンテンツへスキップ
AI用語集に戻る
AI用語

AIハルシネーション

AI Hallucination

解説

AIハルシネーションとは、AIが事実に基づかない情報を、あたかも真実であるかのように回答する現象です。建設DXにおいては、積算の単価や工程表の作成時に、AIがもっともらしい「嘘」を生成するリスクを指します。最新技術で改善が進んでいますが、業務で活用する際はAIの回答を鵜呑みにせず、人間が最終確認を行う運用が不可欠です。

さらに詳しく解説

AIハルシネーションとは

AIハルシネーション(AI Hallucination)は、AIが事実に基づかない情報をあたかも正しいかのように生成する現象です。大規模言語モデルの根本的な課題の一つです。

発生の仕組み

LLM学習データのパターンに基づいて「もっともらしい」テキストを生成します。この統計的予測の性質上、学習データにない事実や、誤った組み合わせの情報を生成することがあります。

具体的な例

  • 存在しない論文や書籍の引用
  • 架空の人物や出来事の記述
  • 正確そうに見える間違った数値や統計

対策

  • **RAG**: 外部データベースの情報を参照して回答の精度を向上
  • **ファクトチェック**: AIの出力を人間や別のシステムで検証
  • **プロンプト設計**: 不確かな場合は「わからない」と回答させる指示

ビジネスでの注意点

AIの出力を鵜呑みにせず、重要な意思決定では必ず人間による検証を行うことが重要です。

AI用語集に戻る

この用語をシェア

AIの導入についてご相談ください

「うちの会社でも使えるの?」「何から始めればいい?」
そんな疑問に、30分のオンライン相談でお答えします。

無料相談を予約する