IT用語入門:ハルシネーション【AIがもっともらしく誤情報を作る現象】

PR
PR

PR

バナー

ハルシネーションとは

ハルシネーションとは、生成AIがもっともらしいのに誤った内容を答えてしまう現象です。英語の Hallucination(幻覚)に由来し、AIが存在しない事実を見たかのように振る舞うことを指します。

例として、実在しない出典や法律を示す、人物や数値を作り上げる、といった誤答があります。文章が流暢だと真実らしく見え、利用者が信じてしまう点が問題です。

原因は主に二つです。第一に、古い情報や誤り、偏りを含む学習データの質。第二に、モデルは確率的に語を並べる仕組みで正否を理解せず、内部でファクトチェックもしないことです。プロンプトや設定で悪化する場合もあります。

対策には、外部情報を取り込むRAG(検索拡張生成)の活用、根拠の提示、最新データでの調整、生成パラメータの管理、人による検証が有効です。AIを使う際は常に裏取りを行い、重要な判断は人が最終確認することが要点です。