ハルシネーション(Hallucination)

更新日 公開日 2025/02/28

ハルシネーションとは、AIが事実ではないことを、それっぽく自信満々に答えてしまう現象のことです。「幻覚(hallucination)」という意味の言葉が使われていて、AIが“事実を見誤っている”状態を指します。たとえば、ChatGPTに「2025年のノーベル賞受賞者は?」と聞くと、まだ発表されていないのに、それらしい名前を適当に作って答えてしまうことがあります。これがハルシネーションです。

ハルシネーションの例

  • AIに「最近のニュースを教えて」と聞いたら
    → 実際にはない出来事を、それらしい文章で説明してしまう
  • 「有名な歴史上の人物○○について教えて」と聞いたら
    → 実際には存在しないエピソードを作ってしまう
  • 「○○の論文のタイトルを教えて」と聞いたら
    → 実際には存在しない論文を、それっぽく作り出してしまう

なぜハルシネーションが起きるのか

AIは「確率」で文章を作っているから
AIは言葉の並びのパターンを学習していて、「もっともそれらしい答え」を出す仕組みです。しかし「本当に正しい情報か?」はチェックできないので、間違ったことをそれっぽく話してしまう。

最新の情報を持っていないことがある
AIは学習データに基づいて答えるため、リアルタイムの出来事や最新の情報はわからない。

データに偏りや間違いがある
AIが学んだデータ自体に間違いやバイアスがあると、それを元に誤った答えを作ることがある。

AIチャットボットで問い合わせ対応を自動化し、コア業務に集中しませんか?

資料の内容

  • Check Icon AIチャットボットの特長
  • Check Icon 活用方法や料金を説明

IZANAI powered by Open AIの
各種資料ダウンロード・無料トライアルがお試しいただけます

AIチャットボットで問い合わせ対応を自動化し、コア業務に集中しませんか?
無料資料ダウンロード
IZANAIのAIチャットボットを2週間無料で体験!
FAQ改善の効果を体感しませんか?
2週間無料トライアル