ハルシネーション

掲載:2024年03月06日

用語集

「ハルシネーション」とは、ChatGPTに代表される生成AIが、事実に基づかない「もっともらしい嘘」を回答してしまう現象です。まるで、AIが幻覚(Hallucination)を見ているかのような回答を返すことから、こう呼ばれています。生成AIを利用する際は、常にハルシネーションの可能性を念頭に置くことが重要です。

         

ハルシネーションの事例とリスク

ハルシネーションは、AIの自然言語処理や画像生成の分野でみられる事象です。おおむね正しい回答の中に一部の誤ったデータや情報が含まれるものから、まったくのデタラメな回答を返すものまで、さまざまなケースがあります。

例えば、「東京都に隣接する都道府県を全て教えてください」という質問をChatGPT 4に投げかけたところ、以下のように回答されました。

---

東京都に隣接する都道府県は以下の通りです:

  1. 千葉県(東京湾を挟んで東側に位置)
  2. 埼玉県(北側に位置)
  3. 神奈川県(南側に位置)

これらの都道府県は、東京都と陸地または湾を挟んで接しています。東京都は日本の首都圏の中心であり、これらの隣接する都道府県とともに、広域的な都市圏を形成しています。

---

この回答では山梨県が抜けています。各都道府県の位置や首都圏の解説なども交えて、もっともらしく答えていますが誤りです。「山梨県もありますよね?」と追加で質問すると、「おっしゃる通りです」と言って回答を訂正しました。なお、ChatGPTの回答は毎回異なるため、同じ質問をしても必ず間違えるとは限りません。

出典:Open AI「ChatGPT 」

このように、知っている人なら簡単に答えられるような内容でも、生成AIは誤った回答を返すことがあります。ハルシネーションの可能性を認識せずに生成AIを利用すると、誤情報・偽情報の拡散や意思決定の誤り、社会的・倫理的な問題などにつながる可能性があるため、注意が必要です。

ハルシネーションの原因

生成AIのハルシネーションの原因は複数あり、それらが絡み合って引き起こされると考えられています。代表的な3つの原因は以下のとおりです。

  • 1)学習データの問題
    生成AIは、大量のデータから学習し、そのデータに基づいて文章や画像などを生成します。データに不足や偏り、誤りがあると、生成AIがそれらを学習してしまい、ハルシネーションを起こす可能性が高くなります。
  • 2)AIモデルの問題
    AIモデルの構造や学習プロセスの問題も、ハルシネーションの原因の1つです。学習データから実際には存在しない関係性や因果関係を生成してしまうと、事実と異なる回答を導き出す可能性があります。
  • 3)文脈の解釈の問題
    人間が入力したプロンプト(指示・命令文)を生成AIが適切に解釈できない場合も、ハルシネーションを引き起こす原因となります。例えば、文脈によって意味が異なる言葉や暗黙的な表現を使った場合、生成AIが文脈を誤解し、誤った結論や予測を生成する可能性があります。

ハルシネーションへの対策

生成AIを利用する際には、ハルシネーションの可能性を念頭に置いて、以下のような対策を行いましょう。

  • 生成AIの回答を鵜呑みにせず、信頼できる情報源と照らし合わせる
  • ChatGPTとGemini(旧Bard)など、複数の生成AIを併用する
  • 生成AIが適切に解釈できるよう、プロンプトを詳細に入力する
  • 医療・法務・ビジネスの意思決定など、情報の信頼性や正確性が求められる分野での利用は慎重にする

生成AIは、ハルシネーションという問題を抱えているものの、大きな可能性を秘めた技術です。企業における利用の場合は社内でAIの利用規定を設けるなど適切な対策を行なって、生成AIを安全・便利に活用しましょう。

おすすめ記事