前回の記事では、生成AIが事実と異なる情報をもっともらしく出力してしまう「ハルシネーション」について取り上げました。
一見便利に思えるAIも、実は「それっぽく見えるだけで中身がウソ」なんてことが、普通に起こるわけです。
とはいえ、AIのこの性質を把握した上でうまく扱えば、その“ウソ”を減らすことは可能です。
今回はそのために有効な、「ハルシネーションを起こしにくいプロンプトの書き方」について、当方なりに整理してみます。
この工夫を知っているかどうかで、生成AIの出力の信頼性は大きく変わってきます。
■ なぜプロンプトで出力の質が変わるのか?
生成AIは、私たちが入力する文章(=プロンプト)をもとに、次の単語を予測して出力を組み立てています。
つまり、こちらの聞き方が曖昧だったり、背景や条件が抜けていると、AIは文脈を勝手に補って“もっともらしく”答えてしまうのです。
逆に言えば、前提条件を明確に伝えたり、答え方を制限したりすることで、ハルシネーションを減らすことができるというわけです。
■ ハルシネーションを起こしにくいプロンプト設計4つのポイント

【1】目的・前提・制約を明示する(=5W1Hを意識)
何のために、どんな背景で質問しているのかを明記すると、AIはその文脈に沿って答えようとします。
この情報がないと、AIは勝手に「教育用なのか、ビジネス向けなのか」「専門家向けか、初心者向けか」を想像で補ってしまいます。
✅ 例:
×「量子コンピュータについて教えて」
→ 抽象的。対象読者や目的が不明。AIは“想像で”書くしかない。
○「高校生向けに、量子コンピュータの仕組みと、既存のコンピュータとの違いをやさしく解説してください」
→ 対象・トーン・内容が明確になり、回答の方向性が定まる。
🔍 理由:
「どの視点から説明するか」がAIにとって重要な前提情報になるため。
これを明示することで“ピントがずれた”出力を減らせます。
【2】出力の形式や粒度を具体的に指定する
AIは、答え方の“型”が決まっていると、その型に合わせて出力しようとします。
構造化された形式(リスト・表・段落指定など)を求めると、情報の正確性・比較性が高まる傾向にあります。
✅ 例:
×「メリットとデメリットを教えて」
→ 書き方も粒度も自由すぎて、バランスが悪くなりがち。
○「〇〇技術のメリットとデメリットを3項目ずつ、以下の形式で箇条書きにしてください」
→ 情報の過不足を防ぎ、論理的な回答になりやすい。
🔍 理由:
構造を与えることで、AIが出力を「整えようとする」バイアスが働き、内容の安定性が増すため。
【3】出典や根拠の記述を要求する(ただし、鵜呑みにはしない)
AIは本来、リアルタイムでウェブを検索しているわけではないため、出典付き回答を出しても「それらしく見える嘘」を混ぜることがあります。
とはいえ、「出典を挙げてください」と指示することで、出力内容に根拠を持たせようとする傾向が強まります。
✅ 例:
「2023年以降の日本のEV普及率について、できるだけ信頼できる調査データや報告書の出典とともに、ポイントを3つ解説してください」
🔍 理由:
出典を求めることで、AIが“事実性を意識した”回答を構成しようとするから。
ただし、出典の真偽は人間側で必ず検証すること。
【4】複雑な内容は段階的に分けて聞く
長くて複雑な質問を一度に投げると、AIはそれを一気に要約してしまい、内容がぼやけたり、ウソが混ざる可能性が高くなります。
このようなときは、「まず概要」「次に具体例」「最後に比較」というように、段階的にプロンプトを分割するのが有効です。
✅ 例:
ステップ1:「量子コンピュータの概要を300字以内で要約してください」
ステップ2:「従来型コンピュータとの仕組みの違いを、簡単な比喩を交えて説明してください」
ステップ3:「その応用分野を3つ挙げて、それぞれの課題も説明してください」
🔍 理由:
段階的に聞くことで、AIが一つ一つのポイントに集中し、曖昧なまままとめてしまうのを防げる。
■ まとめ:AIに“考えさせる”には、問いがすべて
プロンプトとは、AIに与える「設計図」であり「仕様書」です。
つまり、良いプロンプト=良い出力につながるというのは、ある意味当然の話です。
今回紹介したように、
-
目的と条件を伝え、
-
答え方を制限し、
-
答える順序を誘導する
といった工夫だけでも、AIはハルシネーションを起こしにくい状態になります。
生成AIを「胡散臭い道具」から、「信頼できるアシスタント」に近づけるには、人間側の問い方がカギとなります。
太陽光発電ランキング
ブログ更新の励みになります。
よろしければ、是非クリックください。
にほんブログ村
<
コメントを残す
コメントを投稿するにはログインしてください。