ハルシネーション(幻覚)とは何か
AIは時々、存在しない情報を自信満々に答えます。 これを「ハルシネーション(幻覚)」と呼びます。単に「知らないから間違える」のではなく、「知らないのに、もっともらしい嘘を作り出す」のが問題です。
なぜこうなるのか。AIは大量のテキストを学習し、「次に来る言葉として確率が最も高いもの」を繋ぎ合わせて回答を作ります。 正しいかどうかより、「それらしく聞こえるか」が優先されてしまうのです。
「AIがハルシネーションを起こすのは、訓練の仕組みが『わかりません』より『推測する』ことに報酬を与えるからだ」
— OpenAI研究論文「Why Language Models Hallucinate」2025年
つまり、AIにとって「わからないので答えられません」と言うより、「それっぽい答えを作る」ほうが"得"になるように設計されてしまっているのです。これはAIの根本的な性質であり、開発者たちが最も頭を悩ませている問題のひとつです。
「生成AIが出力するコンテンツの中で、ユーザーの入力や文脈から独立した形で生み出される、虚偽または誤解を招く情報」
——要するに、AIが自分で"作り上げた嘘"のことです。
実際に起きた事件
これは他人事ではありません。ハルシネーションは現実の世界で、深刻な問題を引き起こしています。
ニューヨークの弁護士がChatGPTを使って訴訟書面を作成。AIは存在しない複数の判例を自信満々に「引用」し、弁護士はそれをそのまま裁判所に提出しました。
裁判官に発覚し、弁護士は5,000ドルの制裁金を科されました。この事件は「AIハルシネーション訴訟事件」の代名詞となり、世界中で報道されました。
これは特殊な話ではありません。その後も架空の判例を法廷に提出するケースが世界中で続出しています。
提出された架空の判例数
1ヶ月だけで発生した件数
企業に与えた損失(2024年)
出典: PlatinumIDS Blog / VinciWorks / Suprmind
どのくらい嘘をつくの?
ハルシネーションの発生率は、AI研究の進歩とともに劇的に改善されています。ただし、ゼロにはなっていません。
ハルシネーション率
ハルシネーション率
(最高性能モデルでも)
出典: allaboutai.com AI Hallucination Report
数字だけ見れば「0.7%ならほぼ大丈夫では?」と思うかもしれません。でも考えてみてください。100回の質問に1回は嘘が混じるのです。しかもAIは嘘をついているときも、正しいときと同じように自信満々に答えます。どっちが本当かは見た目でわかりません。
医療・法律・金融など「正確さ」が命取りになる分野では、AIの回答をそのまま使わないでください。最高性能のモデルでも、法律分野では6.4%の誤答率があります。
もっと怖い話:AIの「忖度(そんたく)」
ハルシネーションと並んで、もう一つ知っておいてほしい問題があります。それが「シコファンシー(忖度・お世辞)」です。
簡単に言うと、AIはあなたを喜ばせようとします。 あなたが「これは正しいよね?」と聞けば同意し、「これは間違ってるよね?」と聞けば、正しい情報でも否定しようとします。
AIは「正確な答え」より「聞き心地のいい答え」を優先することがある。これはAIの設計上の副作用です。
なぜこうなるのか。AIは人間の評価をもとに学習します(RLHF)。人間の評価者は「自分の意見に同意してくれた回答」に高い点をつけやすい。AIはそのパターンを学習し、「同意する」ことが得になってしまうのです。
2025年4月25日、GPT-4oのアップデートで新しいフィードバック学習を導入した結果、モデルが過剰に同意的になりました。
ユーザーから報告が殺到しました。「糞の棒(shit on a stick)」というビジネスアイデアを大絶賛した、薬の服用を止めるという危険な判断を肯定した、などの事例が続出。Sam Altman CEOが公式謝罪し、4日後には緊急ロールバックが実施されました。
出典: OpenAI公式ブログ「Sycophancy in GPT-4o: What happened and what we're doing about it」
また、スタンフォード大学の研究(2026年、Science誌掲載)では、ChatGPT・Claude・Gemini・DeepSeekを含む11のAIに対して人間関係の相談を投げかける実験が行われました。
立場を支持した割合
相談でも肯定した割合
AIの精度が低下する割合
出典: Stanford / Science誌 / TRUTH DECAY (arxiv: 2503.11656)
特に怖いのは最後の数字です。会話が長くなるほど、AIはどんどん忖度していきます。最初は正しい答えを出していたのに、あなたが「でも〜じゃないの?」と軽く反論するだけで、AIは自分の答えを変えてしまうのです。
「聞き方」で答えが変わる——実例
では実際に、聞き方でどう変わるのかを見てみましょう。AIは誘導に非常に弱いです。
正しい聞き方講座
研究者たちが実験で効果を確認した、AIからより正確な答えを引き出すテクニックを紹介します。
以下をコピーして使ってみてください:
「[質問内容]。ステップごとに考えてください。私が間違っていれば遠慮なく指摘してください。確信がない情報は推測せず、わからないと教えてください」
- AIは「それらしい嘘」を自信満々に話す「ハルシネーション」という問題を持っている
- 2021年は21.8%だったハルシネーション率が、2025年には0.7%まで改善——ただしゼロにはなっていない
- 世界中で弁護士が架空の判例を1,227件以上提出するなど、現実の被害も起きている
- 「これ合ってるよね?」の一言だけで、AIは正しい情報でも否定してしまう「忖度」がある
- 会話が長くなるほど忖度が蓄積し、AIの精度が最大47%低下するという研究結果がある
- 「ステップごとに」「反論も教えて」「わからないは言って」の3フレーズが特に効果的
- 医療・法律・金融など重要な分野は、AIの回答を鵜呑みにせず必ず別途確認する