生成AIを使っていると、たまに、えっ、これ本当?と思うような答えが返ってくることはありませんか。
実はそれ、ハルシネーションと呼ばれる現象かもしれません。
ITパスポート試験でも、AIの利用リスクとして注目されている重要なキーワードです。
今回は、ハルシネーションがなぜ起きるのか、そして試験で狙われるポイントを分かりやすく解説します。
ハルシネーションはAIが見る幻覚
ハルシネーションという言葉を直訳すると、幻覚という意味になります。
AIの世界では、AIが事実に基づかない情報を、あたかも正しいことのように出力してしまう現象を指します。
AIがわざと嘘をついているわけではありません。
AIは膨大なデータの中から、次に続く言葉として最も確率が高いものを選んで文章を作っています。
そのため、手元に正しい情報がない場合でも、文章の形を整えることを優先してしまい、結果的にもっともらしい嘘を作り出してしまうのです。
身近な例で考えるハルシネーション
ハルシネーションをイメージしやすくするために、身近な例えで考えてみましょう。
例えば、あなたがアルバイト先のカフェで、お客さんからコーヒー豆の産地について聞かれたとします。
本当は知らないのに、つい、エチオピアの標高が高い農園で、丁寧に手摘みされた豆ですよ、とそれっぽく答えてしまったことはないでしょうか。
これこそがハルシネーションに近い状態です。知らないと言うのではなく、知識を組み合わせて正解っぽい答えを作ってしまう。
AIもこれと同じように、知識の隙間を想像で埋めてしまうことがあるのです。

ITパスポート試験で問われるポイント
試験対策として押さえておくべきなのは、ハルシネーションがもたらすリスクと、その対策です。
生成AIの利用リスクとしての位置づけ
ITパスポート試験では、生成AIをビジネスで活用する際の留意点がよく問われます。
ハルシネーションによって生成された誤った情報をそのままビジネスで使ってしまうと、以下のようなトラブルに繋がる可能性があります。
- 顧客への誤った情報の提供
- 法律やルールの違反。存在しない法律を根拠にしてしまうなどのケース。
- 企業の信頼性の低下
ファクトチェックの重要性
ハルシネーションへの最大の対策は、人間によるファクトチェックです。
AIが出した回答を鵜呑みにせず、必ず公式な文書や信頼できるニュースサイトなどで裏付けを取ることが、ビジネスの現場では強く求められます。
試験でも、生成された内容の真偽を人間が確認することが正解の選択肢に絡むことが多いので、しっかり意識しておきましょう。
ハルシネーションを防ぐ・見抜く対策
ハルシネーションを完全になくすことは難しいですが、発生しにくくする工夫は可能です。
- 指示(プロンプト)を具体的にする
〇〇について教えて、だけでなく、信頼できる公的機関のデータに基づいて教えて、あるいは知らない場合は知らないと答えて、と条件を付けることで精度が向上します。 - 複数の情報源と照らし合わせる
AIの回答だけでなく、検索エンジンを使って他のサイトの情報と比較する癖をつけましょう。また、一つのAIだけでなく、異なる複数の人工知能に同じ質問を投げて、回答の内容に食い違いがないかを確認することも有効な対策です。
過去問にチャレンジ!
それでは、実際の試験に近い形式の問題で理解度をチェックしましょう。
生成AIの利用において、AIが事実とは異なる情報を、もっともらしく出力する現象を何と呼ぶか。
ア:ディープフェイク
イ:ハルシネーション
ウ:バイアス
エ:オーバーフィッティング
解答:イ
解説:
正解はハルシネーションです。
アのディープフェイクは、AIを使って本物そっくりの偽画像や動画を作る技術です。
ウのバイアスは、AIの判断に偏りが生じることを指します。
エのオーバーフィッティングは、学習データに過剰に適合しすぎて、新しいデータに対して正しく予測できなくなる状態のことです。
ITパスポート試験 令和6年度(一部改変)
まとめ:AIを過信せず賢く使いこなそう
最後に、今回のポイントを振り返ります。
- ハルシネーションは、AIがもっともらしい嘘をつく現象のこと
- 原因は、AIが言葉のつながりの確率だけで文章を作っているため
- ビジネスで活用する際は、必ず人間によるファクトチェックが必要
AIは非常に便利な道具ですが、完璧ではありません。
特徴を正しく理解して、得意なこと・苦手なことを見極めながら、賢く付き合っていきましょう。
