トラブルシューティング

AIエージェントのハルシネーション対策:嘘をつかせない7つの方法

Media Lab

AIエージェントのハルシネーション対策:嘘をつかせない7つの方法

AIエージェントが事実と異なる情報を生成する「ハルシネーション」は、実用化における最大の課題の一つです。ハルシネーションを完全に防ぐことは現状困難ですが、適切な対策により大幅に減少させることができます。

ハルシネーションが起きる仕組み

LLMは「次のトークンを予測する」という仕組みで動作します。学習データに存在しない情報を聞かれると、それらしい回答を「創造」してしまうことがあります。

ハルシネーションが起きやすい状況:

  • 学習データにない最新情報について聞かれた場合
  • 具体的な数値・統計・引用元を求められた場合
  • 専門的・ニッチな分野の詳細情報が必要な場合
  • 質問が曖昧で、AIが「推測」で補完しようとした場合

対策1:RAGの実装(最も効果的)

ハルシネーション対策として最も効果的なのが、RAG(Retrieval Augmented Generation)です。LLMの学習知識ではなく、確認済みのドキュメントを情報源として使うことで、事実の正確性を大幅に向上させます。

自社製品情報・法的情報・技術仕様など、正確性が重要な情報はドキュメントとしてベクトルデータベースに格納し、LLMはこのデータベースを参照して回答します。AIエージェントのメモリ機能でRAGの詳細を解説しています。

対策2:「知らない」と言えるプロンプト設計

LLMは「知らない」と言うより「それっぽい答え」を生成しようとする傾向があります。これをプロンプトで制御します。

プロンプト例: 「情報が不確かな場合は、必ず「確認が必要です」または「この情報については根拠がありません」と明示してください。推測や不確かな情報を事実として提示しないでください。情報源を明示できる場合のみ、具体的な数値や統計を使用してください。」

対策3:情報源の明示を要求する

「根拠を示してください」という指示を追加することで、ハルシネーションの検出が容易になります。

プロンプト例: 「回答には必ず、その情報の根拠(一般的な知識/特定の文書/推測)を[出所:○○]という形式で明示してください。」

根拠のない情報は「[出所:不明、要確認]」として明示させることで、後でファクトチェックすべき箇所が一目でわかります。

対策4:自己チェックプロンプト

回答生成後に自己評価させるプロンプトが有効です。

「以上の回答について、以下を確認してください:

  1. 具体的な数値・統計が含まれているか?含まれている場合、その出典は何か?
  2. 確実でない情報を断言していないか?
  3. この回答に含まれる情報のうち、不確かな部分はどこか? 確認後、必要に応じて回答を修正してください。」

対策5:チェーン・オブ・ベリフィケーション(CoVe)

生成した回答の各主張を個別に検証するアプローチです。回答を生成した後、「この回答の中で事実確認が必要な主張をリストアップし、各主張が正確かどうか確認してください」という追加プロンプトで検証を促します。

対策6:ウェブ検索との組み合わせ

AIエージェントでリサーチ自動化でも解説していますが、最新情報が必要な場合はウェブ検索ツールを組み合わせます。LLMの記憶に頼らず、リアルタイムで検索した情報を根拠として使うことでハルシネーションを防げます。

対策7:人間によるファクトチェックポイントの設置

完全な自動化よりも、重要な情報を含む出力には必ず人間のチェックを挟む設計が重要です。特に医療・法律・財務に関する情報は、AI出力を参考情報として扱い、専門家の判断を必須にします。

AIエージェントの出力品質を上げる方法でも品質管理の全体的なアプローチを解説しています。

まとめ

ハルシネーション対策の優先順位は:RAGの実装(高効果)→情報源明示の要求(中効果)→自己チェックプロンプト(中効果)→人間のファクトチェック(安全策)の順です。完全に防ぐことは困難ですが、これらの組み合わせで実用的なレベルまで信頼性を高めることができます。特に重要な意思決定に使うAIエージェントには、複数の対策を重ねて実装することをお勧めします。