ChatGPTなどのAIを使っていると、「もっともらしいけれど実は間違っている情報」を返してくることがあります。これを「AIのハルシネーション(幻覚)」と呼びます。
この記事でわかること: – AIのハルシネーションとは何か – なぜ発生するのか(原因) – 具体的にどんな問題が起きるか(事例) – ハルシネーションを減らすための対策
AIのハルシネーションとは?
ハルシネーション(Hallucination:幻覚)とは、AIが事実に基づかない情報を、まるで正しいかのように自信を持って生成してしまう現象のことです。
人間でいう「勘違いして自信満々に話す」状態に近いイメージです。
具体的な例
- 実在しない書籍の名前・著者・出版年を答える
- 存在しない企業・人物について詳細な説明をする
- 法律・制度の内容を誤って説明する
- 数値計算や日付の計算を間違える
ChatGPTなどのAIはスムーズで自信ありげな文章を生成するため、誤情報かどうかを文章の見た目だけで判断するのが難しいのが問題です。
なぜハルシネーションが起きるのか?(原因)
原因1:確率的に「次のトークン」を予測している
ChatGPTなどの大規模言語モデル(LLM)は、前後の文脈から次の単語(トークン)を確率的に予測して文章を作ります。「もっともらしい文章を生成する」ことには長けていますが、「事実であることを確認する」機能は別問題です。
原因2:学習データの偏り・誤りを引き継ぐ
インターネット上のテキストを大量に学習しているため、学習データ中の誤情報・偏った情報も一緒に取り込まれます。
原因3:知識のカットオフ(情報の鮮度)
AIモデルには「学習データのカットオフ日」があり、それ以降の出来事は知りません。古い情報を最新の事実として答えてしまうことがあります。
原因4:不明な場合も回答しようとする
AIは「わかりません」と答えるより、それらしい回答を生成しようとする傾向があります。知識が不確かな部分でもそれらしく補完するため、誤情報が混入しやすくなります。
ハルシネーションが起きやすいシーン
| シーン | 起きやすい理由 |
|---|---|
| 書籍・論文・資料の引用 | 実在しない文献を作り出すことがある |
| 統計・数値データ | 正確な数値を確認する機能がない |
| 最新ニュース・時事情報 | カットオフ後の情報は知らない |
| 法律・規制・制度 | 改正情報が反映されていない場合がある |
| 専門的な専門知識 | 専門外は不確かな情報が混じりやすい |
ハルシネーションへの対策
対策1:重要な情報は必ず一次ソースで確認する
AIの回答を「参考情報」として活用し、重要な数値・法律・事実は必ず公式サイト・政府機関・信頼できる文献で確認しましょう。
対策2:「確認できますか?」とAIに聞き直す
「先ほどの情報は正確ですか?出典を教えてください」と追加で質問すると、AI自身が回答の不確実性を認める場合があります。
対策3:RAG(検索拡張生成)を活用する
最新情報を扱うシステムでは、AI回答の前に信頼できるデータベースを検索して結果を組み込む「RAG(Retrieval-Augmented Generation)」という技術が有効です。
対策4:最新情報が必要な場合はウェブ検索対応AIを使う
Perplexity AIや、ブラウジング機能をオンにしたChatGPTなど、リアルタイムでウェブ検索できるAIを活用すると最新情報に基づいた回答が得られます。
対策5:AIに「わからない場合はわからないと言って」と指示する
プロンプトに「確信がない場合は『わかりません』と答えてください」と明示的に指示することで、不確実な情報を減らす効果があります。
ハルシネーションに関連する用語
- LLM(大規模言語モデル)とは:ハルシネーションが発生するAIモデルの基盤
- 生成AIとは:ハルシネーションが問題となるAI技術
- プロンプトエンジニアリングとは:ハルシネーションを減らす指示技術
- AIエージェントとは:ハルシネーションのリスクが特に重要な自律型AI
まとめ:AIのハルシネーションのポイント
- ハルシネーションとは、AIが事実でない情報を自信を持って生成する現象
- 確率的な文章生成・学習データの偏り・情報のカットオフが主な原因
- 書籍引用・数値・法律・最新情報などで特に起きやすい
- 重要な情報は一次ソースで確認・RAG活用・検索対応AIの使用が有効な対策
AIは非常に便利なツールですが、「言ったことが必ず正しい」わけではありません。適切な検証を組み合わせながら活用することが大切です。

