最近話題のChatGPTなどの「生成AI」。とても便利ですが、ITパスポート試験の勉強をしていると「ハルシネーション(Hallucination)」という要注意なキーワードが出てきます。
「AIがハルシネーションを起こす」とはどういうことなのか?なぜITパスポート試験で問われるのか?
この記事では、IT初心者の方に向けて、ハルシネーションの意味や具体的な失敗例、そしてビジネスでAIを使うときの注意点をわかりやすく解説します!
1. ハルシネーションとは?
直訳すると「幻覚」という意味
ハルシネーション(Hallucination)とは、もともと医療用語で「幻覚」という意味の言葉です。
ITやAIの世界では、「AIが、事実とは異なる情報を、あたかも本当のことのように、もっともらしい嘘を出力してしまう現象」のことを指します。
生成AIは、膨大なデータを学習して「確率的に最も自然な言葉の繋がり」を作っているだけなので、「自分が嘘をついている」という自覚がありません。そのため、人間がパッと見ただけでは騙されてしまうような見事な嘘をつくことがあるのです。
2. どんな嘘をつくの?具体的な事例で解説
「もっともらしい嘘」と言われてもピンとこないかもしれません。ここで、ハルシネーションの具体的な事例を3つ見てみましょう。
事例① 実在しない法律やルールをでっち上げる
「〇〇という法律について詳しく教えて」とAIに質問したとします。するとAIは、
*「〇〇法第3条に基づき…」*
と、実在しない法律の条文を、もっともらしい専門用語を並べて回答することがあります。
事例② 人の経歴や歴史を間違える
「歴史上の人物〇〇について教えて」と聞いたときに、
*「〇〇は1990年にノーベル賞を受賞し…」*
と、実際には受賞していないのに、事実とは違う輝かしい経歴を自信満々に答えることがあります。
事例③ プログラミングで存在しないコードを提案する
エンジニアがAIに「ここを動かすプログラムコードを書いて」と頼んだとき、AIが「実在しない便利な機能(ライブラリ)」を勝手に作り出してコードの中に混ぜ込むことがあります。そのまま使うと当然エラーになってしまいます。

3. なぜITパスポート試験で出題されるの?
ITパスポート試験(シラバスVer.6.5以降)では、生成AIに関する問題が追加されました。その中でも「ハルシネーション」が重要視される理由は大きく2つあります。
理由① ビジネスでの大きなトラブル(リスク)を防ぐため
もし、会社の仕事でAIが作った「嘘の企画書」や「間違った法律の解釈」をそのまま取引先に提出してしまったら、会社の信用はガタ落ちになり、大問題になります。
ITをビジネスで活用するには、「AIの回答を100%鵜呑みにしてはいけない」というリスク管理の知識が絶対に必要だからです。
理由② 人間によるファクトチェックの重要性を知るため
ハルシネーションを防ぐ一番の対策は、「人間が事実関係(ファクトチェック)を必ず行うこと」です。試験では、「生成AIを利用する際は出力結果の正確性を裏付け調査する」といった対応が正解となる問題が出題されます。
4. 過去問の出題イメージ
ITパスポート試験では、以下のような形でハルシネーションに関する問題が出題される傾向があります。
問題イメージ:
「生成AIを利用する際の課題の一つに、学習データに存在しない事実や、事実に基づかないもっともらしい嘘をAIが出力してしまう現象がある。この現象を何というか。」
正解:
ハルシネーション
まとめ
- ハルシネーションとは、AIが事実と異なる「もっともらしい嘘」を出力してしまう現象のこと(直訳:「幻覚」)。
- AIには「嘘をついている自覚」がないため、架空の法律や経歴を自信満々に答えること(事例)がある。
- ビジネスでAIを利用する際は、人間による事実確認(ファクトチェック)が絶対に必要!
- ITパスポート試験では、生成AIの「技術」だけでなく「リスクと対策」としてよく問われる。
生成AIは魔法のツールではなく、強力なアシスタントです。「たまに知ったかぶりをする後輩」くらいに思って、最後は人間がしっかりチェックすることが大切だと覚えておきましょう!
