SEO・AI検索対策なら、株式会社メディアリーチ
HOMEkeyboard_arrow_rightSEO・LLMOコラムkeyboard_arrow_right

LLMOプロンプト設計戦略・手順を解説|2つのステップで進める実務ガイド

株式会社メディアリーチ

LLMOプロンプト設計戦略・手順を解説|2つのステップで進める実務ガイド

更新日:2026年4月27日

監修者

株式会社メディアリーチ 代表取締役 松村 俊樹

兵庫県神戸市生まれ。2012年立命館大学卒業後、株式会社インテリジェンス(現パーソルキャリア)で採用支援に従事。2015年、米国デジタルエージェンシーPierry(現Wunderman Thompson)に入社し、日本支社立ち上げ、MAやSEOコンサルティングに従事。その後、富士フイルムグループ会社でグローバルデータベース型SEOに従事、2021年に株式会社メディアリーチを設立し、代表取締役に就任。日本国内企業や北米、欧州、中国本社のグローバル企業のSEO支援も行う。SEO経歴10年以上。デジマナMEETにLLMO関連で講師登壇 / 東京都中小企業振興公社運営のTOKYO創業ステーションイベントにLLMO関連で登壇


▶︎イベント登壇・講演、共催セミナー依頼はこちら

LLMOプロンプト設計とは、AI回答(ChatGPT・Perplexity・Gemini・Google AI Overviews等)で自社ブランドが推薦されるための、追跡対象プロンプトを戦略的に絞り込み、応答を5つの観点で深掘りする手法です。

本記事では、LLMO支援サービスを提供する当社メディアリーチが、開発したプロンプト設計ナレッジを、SEO実務経験のある事業会社のWeb/SEO/LLMO担当者向けに共有します。

手順としては、(1)ステップ1=絞り込み(追跡対象プロンプトを20〜40本に絞る)、(2)ステップ2=深掘り(AI応答を5つの観点で分解し施策化)の2段階で進める具体的な手順となります。

当社メディアリーチは、LLMOブランド推薦強化や引用対策のLLMOコンサルティングサービスを提供していますので、調査・戦略設計から依頼したい企業様はぜひご相談ください。

なぜ「LLMOプロンプト設計」がLLMOの起点になるのか

ChatGPT・Perplexity・GeminiといったLLM(大規模言語モデル:対話型AIの中身となる仕組み)が情報収集の入り口として一般化したことで、自社ブランドの露出戦略は「検索順位の最適化」から「AI回答の中で推薦されるための最適化」へと拡張されつつあります。これがLLMO(Large Language Model Optimization)と呼ばれる領域です。

SEOが「検索順位を上げる」取り組みであるのに対し、LLMOは「AIの回答の中で自社が紹介される」ことを目指す取り組みです。事業会社のWeb/SEO/LLMO担当者が最初に直面するのは、「どのプロンプトで自社が言及されるべきか」というLLMOプロンプト設計の意思決定です。

LLMには月間検索ボリュームや明確な順位指標が存在しないため、追跡対象を選ぶ行為そのものが戦略になります。

本コラムでは、SEO実務経験のあるWeb担当者が自社のLLMO施策に本格着手する際に押さえておきたい、LLMOプロンプト設計の戦略思考と具体的な手順を、「ステップ1:絞り込み」と「ステップ2:深掘り」の2段階で解説します。

1. LLMOプロンプト設計の前提となる3原則

LLMOプロンプト設計の手順に入る前に、SEOとLLMOの違いを生む3つの前提を整理しておきます。これを押さえないまま既存のSEO手法を持ち込むと、評価軸そのものがズレた施策設計になってしまうため注意が必要です。

LLMOプロンプト設計の前提となる3原則

1.1 検索ボリュームや順位は存在しないが、需要強度は推定できる

LLMは、従来のSEOで頼ってきた「月間検索ボリューム」や「自社サイトの順位」のような静的な指標を、プロンプト単位で直接的には提供しません。

AI回答に登場するブランドや引用ソースも確率的に変動します。そのため、「どのキーワードで何位を狙うか」ではなく、「どのプロンプトを追跡対象とし、その中で自社が推薦される確率をどう高めるか」が論点になります。

ただし、プロンプトに対応する「検索トピックの需要強度」は完全に未知ではなく、複数の代替指標を組み合わせて推定できます。

具体的には、

  • (1)自社の獲得キーワードのインプレッション・クリック数(Google Search Console)

  • (2)競合や市場全体の獲得キーワード(Ahrefs/Semrush/Keywordmap/Nobilistaなど)

  • (3)Google広告キーワードプランナーの月間検索数

  • (4)Googleトレンドの相対指数、

  • (5)X・Yahoo!知恵袋・noteなど日本語コミュニティでの言及頻度

  • (6)業界比較メディアのレビュー件数や記事更新頻度

の6系統です。

特に重要なのは(1)と(2)を必ず組み合わせることです。

Google Search Consoleは自社サイトが既に検索結果に表示されたキーワードしか返さないため、単独で使うと「自社がすでに順位を取れている領域」に偏ってしまい、競合が獲得していて自社が取れていない領域や、自社サイトにそもそもページがない新カテゴリの需要が抜け落ちます。

キーワード調査が可能なツールで競合・市場全体のキーワードを補完することで、市場の需要マップ全体をカバーできます。

これらを総合し、各プロンプトに対して「需要強度=高/中/低」の3段階で相対評価しておくと、後の絞り込みと優先順位付けの精度が大きく上がります。

つまりLLMOにおいては、SEOのような単一の絶対値(ボリューム数)に依存するのではなく、複数の代替シグナルから需要強度を推定したうえで、戦略判断に組み込むという発想が重要になります。

1.2 派生検索(ファンアウトクエリ)が発生する

LLMはユーザーが投げた1つのプロンプトを、内部で複数のサブクエリに分解して検索し、結果を統合してから回答を作ります。この派生検索の挙動を「派生検索(ファンアウトクエリ/query fan-out)」と呼びます。

クエリファンアウトの仕組み図解

Googleが公開した特許出願(US20240289407A1)等では、この処理は「クエリ変形生成(query variant generation)」と表現されており、業界で広く使われている「query fan-out」と技術的には同じ挙動を指しています。

Search Engine Journal、Search Engine Land、Aleyda Solis 氏の解説などのSEO業界の主要メディアでも、AI Modeの基幹技術として整理されています。

たとえば「おすすめのSEO対策会社」というプロンプトに対し、AIは内部で「BtoB向け SEO支援 比較」「中堅企業 SEO支援 事例」のような複数のサブクエリを走らせています。つまりユーザーが投げた言葉と、モデルが実際に参照した検索語は1対1で対応しません。

施策の重心は、1キーワードでの競争ではなく、派生サブクエリのどこから検索されても候補に残る公開情報群の設計に移ります。

1.3 引用のばらつきが起きる

同じプロンプトを何度実行しても、引用ソース・推薦されるブランド・言い回しは毎回少しずつ変動します。AI Overviews・AI ModeはGoogle側でも「複数の関連検索を実施しながら回答を組み立てる」と説明されており、結果として同一クエリでも参照先と言及内容が一定しない傾向があります。

したがってLLMOでは、「1回の計測結果で勝ち負けを判定しない」「同一条件で複数回計測し、分布で評価する」という運用ルールが大前提になります。本コラムの後半で触れる10回計測の考え方も、この原則から導かれています。

2. LLMOプロンプト設計の基本構造:2つのステップで進める

LLMOプロンプト設計は、大きく次の2つのステップに分けて整理すると、戦略と実行がすっきり分離できます。

ステップ

目的

アウトプット

ステップ1:絞り込み

追跡すべき対象プロンプトを20〜40本に絞り込む

対象プロンプトリスト(20〜40本)

ステップ2:深掘り

個別プロンプトに対するAI応答を5つの観点で分解する

施策案・KPI紐付けシート

※ ステップ1で「何を追うか」を決め、ステップ2で「どう勝つか」を決める、という分業のイメージです。

3. 【ステップ1】LLMOプロンプトの戦略的な絞り込み

3.1 プロンプトタイプ5分類とLLMO対象範囲

プロンプトはユーザーの意図によって5つに分類できますが、すべてがLLMO施策の対象になるわけではありません。実務テストの結果、①情報収集型と③手順・How To型はAIがブランドを推薦せず、自社ドメインの引用も発生しにくいことが確認されています。LLMO施策では、対象を②比較検討型・④ブランド指名型・⑤購買・来店型の3タイプに絞るのが定石です。

プロンプトタイプ5分類とLLMO対象範囲

タイプ

ユーザー状態

代表例(自然な質問文)

LLMO対象

①情報収集型

問題の原因や定義を探している段階

「問い合わせ数が伸びない原因は何ですか?」

対象外(参考)

②比較検討型

選択肢を比較している段階

「中堅製造業向けの国産CRMでおすすめはどれですか?」

◎ 主対象(20〜30本)

③手順・How To型

プロセスや進め方を探している段階

「ECサイトのメール配信を自動化するにはどうすればよいですか?」

対象外(参考)

④ブランド指名型

自社・競合を直接評価している段階

「○○社の評判はどうですか?」

○ 別枠管理(5〜10本)

⑤購買・来店型

購入先や来店先を決めている段階

「大阪市内でSEOに強い会社はどこですか?」

○ 業種別対応

※ 「①と③もカバーすべきでは?」という議論はよく出ますが、現時点ではブランド推薦が起きにくいため、対象から外して工数を主戦場に集中させる判断が合理的です。

3.2 業種別の検討プロセス整理(BtoB SaaS/製造業/不動産/金融/教育/士業)

LLMOプロンプトは、お客様の検討プロセス(認知・比較検討・購買来店の3段階)で整理します。LLMOの主戦場は「比較検討段階」で、ここに広い意図のプロンプトと、お客様の条件を上乗せして絞り込んだ狭いプロンプトの両方を配置します。狭いプロンプトのほうが、AIが実際にユーザーごとに返している応答に近いデータを得やすい傾向があります。

業種ごとの傾向を整理すると、自社のリソース配分のセオリーが見えてきます。下表は、本コラムで想定する代表的な業種について、検討プロセス上の重心と典型的な対象プロンプト例を整理したものです。

業種

検討プロセスの重心

代表的な対象プロンプト例(自然な質問文)

BtoB SaaS

比較検討中心(購買来店はスキップ)

「中堅製造業向けの国産CRMでおすすめはどれですか?」「年商50億円規模のBtoB企業に合うMAツールを教えてください」

製造業(受託・部品)

比較検討+ブランド指名

「自動車部品の精密板金加工でおすすめのメーカーはどこですか?」「中小ロット対応の樹脂成形会社で、関西エリアのおすすめを教えてください」

不動産(仲介・売買)

比較検討+購買来店

「世田谷区でマンション売却を任せられる、信頼できる不動産会社はどこですか?」「関東で投資用ワンルームの売買に強い、おすすめの仲介会社を教えてください」

金融(資産運用・保険)

比較検討中心

「30代会社員のつみたてNISAで、おすすめの証券会社はどこですか?」「経営者向けの法人生命保険を比較したいのですが、おすすめはどれですか?」

教育・スクール

比較検討+購買来店

「社会人向けのデータサイエンス講座で、おすすめはどれですか?」「中学受験対策で、渋谷区にある個別指導塾のおすすめを教えてください」

士業(会計・法律)

比較検討+購買来店

「IPO準備に強い監査法人で、中堅企業向けのおすすめはどこですか?」「渋谷でスタートアップ向けの顧問弁護士を探しています、おすすめは?」

※ 購買・来店段階は、不動産・教育・士業のようにローカル性や対面接点が強い業種では特に重要ですが、BtoB SaaSや金融(特に法人向け)は商談・面談経由の購買行動が中心のため、通常スキップして比較検討段階の精度向上に工数を振り向けます。

3.3 LLMOプロンプトの集め方7手法

プロンプトの偏りは、情報源の偏りがそのまま持ち込まれた結果として生じます。単一の情報源に頼らず、最低4手法以上を組み合わせて対象プロンプトを集めるのが鉄則です。

LLMOプロンプトの集め方7手法

手法

概要

主な情報源

①既存SEOキーワードからの転換

自社獲得キーワード(GSC)と、競合・市場キーワード(Ahrefs等)の両方から、自然な質問文に変換する

GSC(自社分)/Ahrefs・Semrush・Keywordmap・Nobilista(競合・市場分)

②関連質問・AI回答からの収集

「他の人はこちらも質問」やAI Overviewsから自然文を収集

Google検索、ラッコキーワード

③LLMへの直接質問

「人々が聞く質問を10個」とLLMに尋ねる

ChatGPT、Gemini、Perplexity

④日本語コミュニティの観察

ユーザーの生の語彙と課題記述を抽出

X、Yahoo!知恵袋、note、口コミ

⑤有料検索データの活用

競合が出稿している商業意図の強い語を抽出

Google広告、Yahoo!広告、SimilarWeb

⑥企業サイトの読み込み

自社・競合サイトを15分精読しユースケースを抽出

公式サイト、価格・機能ページ

LLMO計測ツールの提案機能

ツールが提示する未追跡候補を取り込む

メディアリーチが独自開発したDolphinX(LLMO計測ツール)

※ ①では、Google Search Console(GSC)単体に頼ると「自社が既に順位を取れているキーワード」だけに偏ります。Ahrefs/Semrushなどの第三者ツールで競合・市場のキーワードを必ず補完してください。また①②は早く着手できる反面、ユーザーの生の声が欠落しがちなので、④の日本語コミュニティ観察を組み合わせるとAI応答に反映されやすい言い回しが拾えます。

3.4 LLMOプロンプトの絞り込み4基準

集めたプロンプト候補は、次の4基準で絞り込みます。1つでも満たさないものは対象から外す、というシンプルな運用が機能します。

LLMOプロンプトの絞り込み4基準

1.競争優位性:そのプロンプトで自社または直接の競合がAI応答に出現する見込みがあるか。「CRMとは何か?」のような定義系の広すぎるプロンプトでは、特定ブランドの露出は期待しにくい。

2.影響可能性:引用元がWikipedia・政府サイト・超大手メディアで固められたプロンプトは難易度が高く、原則後回し。逆にYahoo!知恵袋・note・X、業界比較メディア、まとめ記事が引用されているプロンプトは、こちらから働きかけられる余地がある。

3.ビジネス適合性:「どのお客様像の」「どのユースケースの」「購買プロセスのどの段階のKPIに寄与するか」を必ず紐づけて記録する。AI露出の機会ではなく自社の事業優先順位で選ぶ。

4.対象範囲の絞り込み:地域・業界・企業規模・予算・ユースケースなどの修飾語を重ね、プロンプトを具体化する。

対象範囲の絞り込みの具体例を、業種別に整理すると次のようになります。広すぎる元プロンプトは、自社のターゲット顧客の検討文脈に合わせてここまで具体化することが必要です。

業種

広すぎる元プロンプト

絞り込み後の例

BtoB SaaS

「おすすめのCRMは?」

「中堅製造業向けで、Salesforce連携が前提の国産CRMでおすすめはどれですか?」

製造業

「おすすめの加工会社は?」

「医療機器向けの精密板金加工で、ISO13485取得済みの中部圏のメーカーを教えてください」

不動産

「良い不動産会社はどこ?」

「世田谷区で築20年以上のマンション売却に強い、地域密着の仲介会社はどこですか?」

金融

「良い証券会社はどこ?」

「30代会社員のつみたてNISA向けで、手数料が安いネット証券のおすすめはどれですか?」

教育

「おすすめの英会話は?」

「TOEIC800点以上を狙う社会人向けで、オンライン×コーチング型の英会話のおすすめは?」

士業

「良い税理士は?」

「従業員30名規模のスタートアップ向けで、IPO準備フェーズに強い顧問税理士のおすすめは?」

3.5 対象プロンプトリストの運用指針

4基準で絞り込んだ個別プロンプトは、全体で20〜40本の対象プロンプトリストとしてまとめます。比較検討型を主軸(20〜30本)、ブランド指名型を別枠(5〜10本)、購買・来店型を業種次第(0〜10本)で配置するのが基本構成です。

•       計測するAIモデルは2〜3に絞る(標準構成:ChatGPT、Perplexity、Gemini/Google AI Overviews)

•       追跡期間は最低30日。これ未満では引用のばらつきと施策効果を見分けられない

•       見直しサイクルは30〜60日ごと。「新規追加」「継続見直し」「除外」の3アクションを毎回必ず実施

•       計測コスト=プロンプト数×AIモデル数×再実行頻度。掛け算で膨らむため、広げるより絞る前提で設計する

•       管理単位は個別プロンプトではなく、同じテーマのプロンプトのまとまり(トピッククラスター)で束ねると扱いやすい

4. 【ステップ2】LLMOプロンプトのAI応答を5つの観点で深掘りする手順

ステップ1で対象プロンプトリストが決まったら、次は「個別プロンプトに対してAIがどう応答しているか」を分解し、施策に落とし込むフェーズです。優先度の高い10〜15本に対して以下の5観点をフル適用し、それ以外はStep1・2までで止めて四半期レビューに回す、というメリハリのある運用を推奨します。

Step1:出力構造の分解

AIが返す応答を、(1)出力形式(ランキング型/比較表型/単一推薦型/長文解説型)、(2)評価軸(価格・機能・対象規模・サポート体制など)、(3)採用条件(推薦ブランドに共通して言及されている項目)の3観点で記録します。

特に重要なのは(3)の採用条件です。すべての推薦ブランドに共通する項目は、満たしていないと候補に入らない可能性が高い「露出以前の最低条件」として扱います。たとえばBtoB SaaSなら「ISO27001取得」「導入企業数1,000社以上」、士業なら「業界特化型の実績ページの有無」、不動産なら「Googleビジネスプロフィールの整備」など、業種ごとに採用条件は異なります。自社が条件を満たしているのに、サイトに書かれていないだけというケースが意外と多く、コンテンツ化の優先度を最上位に押し上げる契機になります。

Step2:参照元の仮説立て(5観点で最重要)

AIがその応答を作るにあたり、どのタイプの情報源を参照したかを特定できれば、施策の方向性が自然に決まります。引用URLを次の4カテゴリに分類し、支配的タイプの1位・2位を特定することが、施策投資の配分判断に直結します。

参照元タイプ

典型的な情報源(日本市場)

対応する施策方向

比較・ランキング型

ITreview、BOXIL、価格.com、業界比較メディア

メディア掲載獲得、自社プロフィール整備

商品・サービス型

公式サイト、サービスページ、機能・料金、導入事例

公式サイトのLLM読み取り最適化、構造化データ、FAQ整備

プレス・ニュース型

プレスルーム、PR TIMES、業界ニュース

プレスルームの正本化、調査リリース、メディア関係構築

コラム・オピニオン型

note、Yahoo!知恵袋、X、はてなブログ

コミュニティでの継続発信、UGC(口コミ・ユーザー投稿)の促進

※ 1つのプロンプトに複数タイプが混在するのが普通です。1位タイプに最も厚く施策投資し、2位タイプにも保険として一定量を振り向けるのが定石です。

Step3:派生検索(ファンアウトクエリ)の再現

元のLLMOプロンプトだけを眺めていても、AIが内部で参照した情報源にはたどり着けません。そこで「AIが内部で分解したと思われる派生検索」を仮説として立て、それぞれを独立にLLMへ投げて検証します。

手動で再現する場合は、LLMに対して「このプロンプトをAIに投げた場合、内部で分解される可能性が高い補助検索を5〜10個挙げてほしい」と依頼するのが早道です。複数モデル(ChatGPT/Perplexity/Gemini)で同じプロンプトを実行し、すべてのモデルで共通して引用されているソースは、派生検索の下で複数のサブクエリから参照されている「強い情報源」と推測できます。LLMO計測ツールには、AIが内部生成した派生検索を自動抽出する機能を備えるものもあり、再現作業を大幅に短縮できます。

Step4:AI回答の分解

ブランド露出を「出たか/出ていないか」の二値ではなく、どんな文脈で出ているかまで分解して評価します。

言及ポジション(AI回答の中で何番目に紹介されたか):1位と5位ではユーザーの意思決定への影響度が大きく異なる

推薦文の長さと具体性:1行の言及か、段落レベルの詳しい説明か

並んで挙がっている競合:どの企業と一緒に並べられているか(AIから見たポジショニングの近さ)

ユースケースの条件:「中小企業向け」のような限定付き推薦か、汎用的な推薦か

ネガティブな言及の有無:価格が高い・導入が難しいといった指摘が併記されていないか

• 自社ブランドの呼ばれ方:正式社名・略称・サービス名など、表記揺れの傾向

Step5:LLMOブランド推薦対策の施策化

Step1〜4で得られた示唆を、3種類の施策に振り分けます。これがコンテンツ・PR・プロダクトの3方向への意思決定パスになります。

5.採用条件を整える施策:Step1で抽出した最低条件を、自社が備えているか、備えているなら公開情報として明示されているかを確認。「備えているのに書かれていない」場合はコンテンツ化の優先度を最上位に。「そもそも備えていない」場合は、プロダクト部門・事業部門への社内連携事項として切り分ける。

6.文脈を合わせる施策:Step4で見えた「AIが推薦している文脈」と、自社が本来ポジショニングしたい文脈にズレがある場合、自社サイト・外部メディア・事例コンテンツの3軸を組み合わせてギャップを埋める。

7. 引用ソースに対応した施策:Step2で特定した支配的な参照元タイプに合わせ、メディア・PR・自社サイト・コミュニティへの投資配分を決定。1位タイプに最も厚く、2位タイプにも保険として配分。

5. LLMOプロンプト設計後のKPIと10回計測の考え方

LLMOプロンプト設計と並行して、評価ルールを最初に固めることが極めて重要です。AIの回答は確率的に変動するため、単発の結果で施策を入れ替えると判断を誤ります。社内のLLMO運用ルールとして、次の項目を最初に固定しておくことを推奨します。

当社メディアリーチでは、SEO・LLMO独自プラットフォームを開発し、1プロンプトあたり10回の連続テストを実施することで、露出率を再現する手法を取っています。

メディアリーチの独自ツール「DolphinX」のブランド露出マトリクス画面

•  1プロンプトにつき同一条件で10回計測し、分布で評価する(プロンプト文言・言語・モデル・セッションの扱いを固定)

•  評価開始は30日経過後、傾向の確定判断は60日経過後の2段構え

•  単月の数字では判断しない。3か月連続で同じ方向に動いた場合に「施策の傾向あり」と判断

•  前月比5ポイント以上の変化が2か月連続で続いた場合、施策効果の可能性ありと判断

•  競合との差は3か月平均で比較する(単月の競合比較は変動が大きい)

代表KPIは、(1)露出率=10試行のうち自社が1回でも言及された割合、(2)言及シェア(SOV:Share of Voice)=全ブランドの言及合計に占める自社の割合、(3)引用率=自社ドメインのURLが引用ソースとして採用された割合、の3つです。露出率と引用率は混同されがちですが、AIが自社を推しても自社ドメインを引用しないケースは頻繁に発生するため、必ず分離して計測してください。

6. LLMOプロンプト設計でありがちな失敗パターンと回避策

最後に、インハウスのLLMO推進で頻発する失敗パターンを5つ挙げておきます。LLMOプロンプト設計の初期段階で意識しておくと、無駄な手戻りを大きく減らせます。

失敗パターン

回避策

比較系プロンプトに偏る

ブランド指名型・購買来店型を別枠で必ず確保し、3.5の構成比率に従う

プロンプトの集め方が1つに偏る

3.3の7手法のうち最低4手法を組み合わせる

影響可能性を無視して選ぶ

Wikipedia・政府サイトばかりが引用されているプロンプトは原則後回し

短期間で「効果なし」と判断する

最低30日、できれば60日経過後に傾向を判定するルールを社内で先に合意

単一AIモデルだけで判断する

ChatGPT・Perplexity・Geminiなど2〜3モデルで並行して計測

7. LLMOプロンプト設計に関するよくある質問(FAQ)

本コラムに寄せられる代表的な質問を、結論先行型で整理しました。社内勉強会や周辺メンバーへの説明にもご活用ください。

Q. LLMOとSEOの違いは何ですか?

A. SEOはGoogle検索結果での順位最適化、LLMOはChatGPT・Perplexity・Gemini等のAI回答内での自社ブランド露出の最適化です。SEOが「検索ボリューム×順位」という静的指標で評価するのに対し、LLMOは「同一プロンプトを複数回実行した際の露出率・言及シェア(SOV)・引用率」という確率的な分布で評価する点が最大の違いです。

Q. 対象プロンプトは何本くらい必要ですか?

A. 最初は20〜40本から始めるのが現実的です。比較検討型を20〜30本、ブランド指名型を5〜10本、購買・来店型を業種に応じて0〜10本という構成が標準です。対象プロンプトを増やしすぎると計測コスト(プロンプト数×AIモデル数×再実行頻度)が掛け算で膨らむため、広げるより絞る前提で設計してください。

Q. AI回答の計測は何回行えばよいですか?

A. 1プロンプトにつき同一条件で10回計測することを推奨します。AIの回答は確率的に変動するため、単発の結果では施策効果と引用のばらつきを区別できません。10回試行の分布で「露出率」「言及シェア(SOV)」「引用率」を算出し、月次で30〜100観測規模に集約して評価するのが標準的な運用です。

Q. LLMO施策の効果測定はどのくらいの期間が必要ですか?

A. 最低30日、できれば60日経過後に傾向を判定するのが推奨です。最初の30日は基準値を確立する期間、30〜60日が変化の確認期間、60日以降が施策効果の確定判断期間という2段構えで運用してください。短期間で「効果なし」と判断するのは典型的な失敗パターンです。

Q. LLMOで対象とすべきプロンプトタイプはどれですか?

A. ②比較検討型・④ブランド指名型・⑤購買・来店型の3タイプです。①情報収集型と③手順・How To型はAIがブランド推薦を行わず自社ドメインの引用も発生しにくいため、対象から外して工数を主戦場に集中させるのが定石です。

Q. 派生検索(ファンアウトクエリ)とは何ですか?

A. LLMがユーザーの1つのプロンプトを内部で複数のサブクエリに分解し、それぞれを検索した結果を統合して回答を作る挙動を指します。Googleの特許出願(US20240289407A1ほか)では「クエリ変形生成(query variant generation)」として記述されており、業界では一般に「query fan-out(ファンアウトクエリ)」と呼ばれます。施策の重心は「1キーワードでの競争」ではなく「派生サブクエリのどこから検索されても候補に残る公開情報群の設計」に移ります。

Q. LLMOで使うべきAIモデルは何ですか?

A. ChatGPT、Perplexity、Gemini/Google AI Overviewsの2〜3モデルでの並行計測が標準構成です。モデルによってAIの挙動・引用ソース・推薦傾向が異なるため、単一モデルだけで判断すると評価を誤ります。モデル間の差そのものが分析対象になります。

Q. 検索ボリュームがないなら、需要強度はどう推定すればよいですか?

A. (1)自社の獲得キーワードのインプレッション・クリック数(Google Search Console)、(2)競合・市場全体の獲得キーワード(Ahrefs/Semrush/Keywordmap等)、(3)Google広告キーワードプランナーの月間検索数、(4)Googleトレンド、(5)X・Yahoo!知恵袋・noteなど日本語コミュニティでの言及頻度、(6)業界比較メディアのレビュー件数の6系統を組み合わせます。GSCは自社が既に順位を取れているキーワードしか返さないため、Ahrefs等で競合・市場分を必ず補完したうえで、各プロンプトに「需要強度=高/中/低」を付与してください。

LLMOプロンプト設計の本質は「絞り込み」と「深掘り」

LLMOプロンプト設計は、SEOのキーワード設計と表面的には似ていますが、検索ボリュームや順位という単一の絶対指標がない世界での意思決定であるという点で本質的に異なります。

代わりに、Google Search Consoleのインプレッション、Googleトレンド、コミュニティでの言及頻度といった複数の代替シグナルから需要強度を推定し、戦略判断に組み込んでいく発想が求められます。

本コラムで紹介した2ステップのフレーム(絞り込み→深掘り)は、戦略判断と実行設計を分離し、再現性のある社内運用フローに落とし込むためのフレームワークです。

特に重要なのは、(1)対象プロンプトを20〜40本に絞り込んで工数を集中させること、(2)個別プロンプトに対しては5観点での深掘りで「採用条件・文脈・引用ソース」の3軸の施策に変換すること、(3)10回計測と2段階評価ルールで「ばらつきの中から傾向を読む」体制を最初に固めることの3点です。

LLMOは、生成AIの普及スピードに対して施策・計測の方法論がまだ成熟しきっていない領域です。BtoB SaaS・製造業・不動産・金融・教育・士業など、業種によって主戦場と勝ち筋は異なりますが、共通するのは「思いつきや単発の試行ではなく、LLMOプロンプト設計の段階から戦略を組み立て、定量的な分布で意思決定する体制を作ること」です。

SEOで培ってきた検索意図を読む力、コンテンツ設計力、データドリブンな改善サイクルは、LLMOにおいてもそのまま強力な武器として活きます。本コラムの手順を起点に、自社のLLMO施策にあてはめて活用してください。

参考文献・出典

本コラムでは、特にAI Mode/AI Overviewsのファンアウトクエリ(query fan-out)について、Googleの公式情報および主要なSEO業界メディアの解説を参照しています。詳細は以下のリンク先をご確認ください。

[1] Google公式ブログ「AI Mode in Google Search: Updates from Google I/O 2025」 https://blog.google/products-and-platforms/products/search/google-search-ai-mode-update/

[2] Google特許出願 US20240289407A1(query variant generation/クエリ変形生成) https://patents.google.com/patent/US20240289407A1

[3] Google特許 US12158907B1「Thematic Search」(AI Modeのテーマ別検索の仕組み) https://patents.google.com/patent/US12158907B1

[4] Search Engine Journal「Query Fan-Out Technique in AI Mode: New Details From Google」 https://www.searchenginejournal.com/query-fan-out-technique-in-ai-mode-new-details-from-google/552532/

[5] Search Engine Land「Query fan-out in AI search: What is it and how does it work?」 https://searchengineland.com/guide/query-fan-out

[6] Aleyda Solis「Google AI Mode's Query Fan-Out Technique: What is it & How Does it Mean for SEO?」 https://www.aleydasolis.com/en/ai-search/google-query-fan-out/

[7] Search Engine Journal「Google's Thematic Search Patent」 https://www.searchenginejournal.com/google-query-fan-out-patent/547983/

本記事の内容には万全を期しておりますが、情報の正確性や完全性を保証するものではありません。万が一、誤りや不適切な表現等を発見された場合は、以下の方法でご連絡いただけますと幸いです。

記事に関するご意見・お問い合わせフォーム

keyboard_arrow_left

SEO・LLMOコラム一覧へ戻る

メディアリーチのホワイトペーパー・資料ダウンロード

メディアリーチの最新イベント・ウェビナー情報