ハルシネーション(Hallucination)
公開日 2025/02/28

ハルシネーションとは、AIが事実ではないことを、それっぽく自信満々に答えてしまう現象のことです。「幻覚(hallucination)」という意味の言葉が使われていて、AIが“事実を見誤っている”状態を指します。たとえば、ChatGPTに「2025年のノーベル賞受賞者は?」と聞くと、まだ発表されていないのに、それらしい名前を適当に作って答えてしまうことがあります。これがハルシネーションです。
ハルシネーションの例
- AIに「最近のニュースを教えて」と聞いたら
→ 実際にはない出来事を、それらしい文章で説明してしまう - 「有名な歴史上の人物○○について教えて」と聞いたら
→ 実際には存在しないエピソードを作ってしまう - 「○○の論文のタイトルを教えて」と聞いたら
→ 実際には存在しない論文を、それっぽく作り出してしまう
なぜハルシネーションが起きるのか
AIは「確率」で文章を作っているから
AIは言葉の並びのパターンを学習していて、「もっともそれらしい答え」を出す仕組みです。しかし「本当に正しい情報か?」はチェックできないので、間違ったことをそれっぽく話してしまう。
最新の情報を持っていないことがある
AIは学習データに基づいて答えるため、リアルタイムの出来事や最新の情報はわからない。
データに偏りや間違いがある
AIが学んだデータ自体に間違いやバイアスがあると、それを元に誤った答えを作ることがある。