
代表の後藤です。
自社サイトのSEO、ちゃんとできていますか?と聞かれると、自信を持って「はい」と答えられる方は意外と少ないと思います。
弊社もそうでした。SEO診断ツールはいくつか試しましたが、どれも「もうひとつ足りない」と感じていました。
何が足りないのか?それは、AI検索への対応です。
今、ChatGPTやGeminiで検索する人が増えています。「ChatGPTに聞いたらこの会社が出てきた」という経路で問い合わせが来る時代です。なのに、自社サイトがAIに拾われやすい構造になっているかどうかを診断できるツールが、ほとんどなかった。
で、なければ作ろうと。そう思って自社開発したのが「サイト採点くん」です。
今回は、このツールをなぜ作ったのか、何にこだわったのか、そして実際に自社サイトをどう改善したのかを全部お話しします。
500件の診断実績から見えた課題
サイト採点くんは、リリース前に無料版を先行公開して、500件以上のサイトを診断しました。
この500件を分析して見えてきたことが、いくつかあります。
1. SEOスコアが高くても、AI検索に拾われていないサイトが多い
これが一番の発見でした。メタタグも構造化データもしっかり設定されているのに、ChatGPTに「○○のおすすめ企業は?」と聞いても出てこない。
その原因は、AIクローラーのアクセスをブロックしていたり、AI向けのサイト情報ファイル(後述するllms.txt)が用意されていなかったり、技術的な部分にありました。
2. 「何から手をつければいいかわからない」という声が多かった
診断結果を見ても、「問題点は20個あります」と言われて、どれから直せばいいのか判断できない。
特に非エンジニアの方や、制作会社に指示を出す立場の人にとって、優先順位がわからないと作業する立場からすると困ってしまいます。
3. 1ページだけの診断では、サイト全体の問題が見えない
トップページだけ診断してOKでも、ブログ記事や会社概要ページがボロボロということはよくある話です。サイト全体を横断的にチェックする仕組みが必要でした。
これらの課題を解決するために、サイト採点くんの設計を大幅にアップデートしてリリースしたのが現在の版です。
こだわったポイント
ここが今回の記事の一番伝えたい部分です。7つのこだわりを順番に紹介します。
① LLMO(AI検索)スコアの独立表示
サイト採点くんでは、「SEOスコア」と「LLMOスコア」を別々に100点満点で表示しています。
LLMOとは「Large Language Model Optimization」の略で、ChatGPTやGeminiなどのAIに自社サイトの情報を正しく拾ってもらうための最適化のことです。
なぜ分けているかというと、SEOとLLMOでは「やるべきこと」が違うからです。
SEO対策が完璧でも、AIクローラーをブロックしていたらAI検索には出てきません。逆に、AI対策だけしていてもGoogleの検索順位は上がりません。
この2つを別々のスコアで見せることで、「うちのサイトはSEOは80点だけど、AI検索対策は35点しかない」というように、何が足りていないのかが一目でわかるようになっています。
以前の記事で紹介した初期版は総合スコアだけでしたが、ユーザーからのフィードバックを受けてこの形になりました。
② 10種類のAIクローラー個別チェック
AIクローラーとは、ChatGPTやGeminiなどのAIサービスが、Webサイトの情報を収集するために使っているロボットのことです。
サイト採点くんでは、以下の10種類のAIクローラーを個別にチェックしています。
- GPTBot(OpenAI / ChatGPT)
- ChatGPT-User(ChatGPTがリアルタイムでサイトを参照する時のクローラー)
- Claude-Web(Anthropic / Claude)
- Google-Extended(Google / Gemini)
- PerplexityBot(Perplexity AI)
- Bytespider(ByteDance)
- CCBot(Common Crawl)
- その他3種類
なぜ個別チェックが必要かというと、robots.txt(サイトのアクセスルールを書いたファイル)で特定のクローラーだけブロックしているケースが意外と多いからです。
たとえば、「GPTBotはブロックしているけどClaude-Webは許可している」とか、「Google-Extendedだけブロックしている」とか。サイトのオーナーが意図的に設定しているならいいのですが、制作会社がテンプレートで全ブロックにしているケースもあります。
これを見落としていると、ChatGPTで検索した時に自社サイトが一切出てこない、という事態になりかねません。
③ llms.txt対応チェック
llms.txtは、AIに自社サイトの情報を伝えるための新しい仕様です。
robots.txtが「クローラーにアクセスを許可するかどうか」を伝えるファイルだとすると、llms.txtは「AIに対して、うちのサイトはこういう会社で、こういうサービスをやっていますよ」と自己紹介するためのファイルです。
まだ新しい仕様なので、対応しているサイトは少数です。だからこそ、今対応しておくことが差別化になります。サイト採点くんでは、llms.txtが設置されているか、内容が適切かをチェックして、スコアに反映しています。
④ 改善アクションに難易度ランク(S~D)
診断結果の改善アクションには、優先度(critical / recommended / optional)に加えて、難易度ランク(S~D) をつけています。
ランク | 意味 | 例 |
|---|---|---|
S | 超簡単。すぐできる | robots.txtの1行追記 |
A | 簡単。数分で対応可能 | メタディスクリプションの追加 |
B | 普通。少し手間がかかる | 構造化データの追加 |
C | やや難しい。技術知識が必要 | JSON-LDの修正 |
D | 難しい。開発者対応が必要 | サイト全体のHTML構造変更 |
なぜこれを入れたかというと、500件の診断を通して「改善項目が多すぎて、何からやればいいかわからない」という声が本当に多かったからです。
優先度が「critical」でも、難易度Sなら今すぐ自分でできる。逆に、難易度Dの項目は制作会社に依頼するべき。この判断ができるだけで、改善のスピードがまったく変わります。
⑤ 非技術者向けの説明
改善アクションには「制作会社にこう伝えてください」という形式の説明を入れています。
たとえば、「構造化データにFAQPageスキーマを追加する」と言われても、非エンジニアには何のことかわかりません。
サイト採点くんでは、こう表示します。
制作会社への依頼文:「よくある質問ページのHTMLに、FAQPageの構造化データ(JSON-LD形式)を追加してください。これにより、Googleの検索結果にFAQがリッチスニペットとして表示される可能性があります」
弊社自身が非エンジニアなので、この部分には特にこだわりました。弊社がAIでSEO対策をした時の記事でも書きましたが、SEOの専門用語は本当にわかりにくい。だからこそ、「何を」「なぜ」「どうやって伝えるか」まで含めて出力するようにしています。
⑥ ページタイプ自動判定
同じWebサイトでも、トップページ、ブログ記事、サービス紹介ページ、会社概要ページでは、SEOの評価基準が変わります。
たとえば、ブログ記事に「会社の設立年」の構造化データがないからといって減点するのはおかしい。逆に、企業ページにArticleスキーマがなくても当然です。
サイト採点くんでは、JSON-LD(構造化データ)とURL構造を解析して、ページタイプを「記事ページ」「企業ページ」「サービスページ」「汎用ページ」の4種類に自動判定します。そのうえで、ページタイプに応じた評価基準を自動で切り替えています。
これによって、「このページにはこれが必要、あのページには不要」という判断が自動化され、的外れな改善提案を出さないようにしています。
⑦ 45項目チェック × サイト全体診断
サイト採点くんの診断項目は全部で45項目。内訳は以下の通りです。
- メタデータ:11項目(タイトル、ディスクリプション、OGP、canonical等)
- 構造化データ:13項目(JSON-LD、Organization、BreadcrumbList等)
- コンテンツ構造:9項目(見出し階層、内部リンク、画像alt等)
- クローラビリティ:7項目(robots.txt、AIクローラー許可、llms.txt等)
- E-E-A-T:5項目(著者情報、運営者情報、更新日等)
1ページ単位の診断に加えて、サイト全体診断モードも用意しています。
サイト全体診断では、サイトマップ(sitemap.xml)から代表的なページを自動で選定し、最大10ページをまとめて診断します。トップページ、会社概要、ブログ記事、サービスページなど、異なるタイプのページを自動で選んでくれるので、サイト全体の弱点が一目でわかります。
「トップページは90点だけど、ブログ記事ページは平均50点だった」みたいな発見が、サイト全体診断でしか見つからないことも多いです。
自社サイトを55点から80点に改善した話
ここからは実体験の話です。
弊社のサイト(i-gs.co.jp)を最初にサイト採点くんで診断した時のスコアは、55点のCランクでした。正直、ショックでした。自分でAI導入支援をしている会社が、AI検索対策ができていないのは恥ずかしい。
で、改善アクションを上から順にやっていきました。
やったこと①:AIクローラーの許可(難易度S)
robots.txtを確認したら、GPTBotとClaude-Webがブロックされていました。Next.jsのデフォルト設定のままにしていたのが原因です。
robots.txtに2行追記するだけで解決。所要時間は5分でした。
やったこと②:構造化データの追加(難易度B)
Organizationスキーマ、BreadcrumbList、FAQPageなど、必要な構造化データを追加しました。JSON-LD形式でHTMLのheadに記述します。
これは弊社がClaude Codeで自動生成しました。手で書くと面倒ですが、AIに任せれば一瞬です。Claude Code × MCPで業務を自動化している話で紹介した仕組みが、こういう時に活きます。
やったこと③:llms.txtの設置(難易度A)
サイトのルートディレクトリにllms.txtを設置して、会社の事業概要・サービス内容・お問い合わせ先を記載しました。作成にかかった時間は10分程度。内容はシンプルに、AIに知ってほしい情報を箇条書きにするだけです。
やったこと④:メタデータの最適化(難易度A)
全ページのメタディスクリプションを見直し、OGP画像が設定されていないページに画像を追加しました。
やったこと⑤:E-E-A-T情報の充実(難易度B)
会社概要ページに代表者情報を追加し、ブログ記事に著者情報と更新日を表示するようにしました。
結果
改善後に再診断したところ、80.3点のAランクになりました。
改善前 | 改善後 | |
|---|---|---|
総合スコア | 55点 | 80.3点 |
ランク | C | A |
SEOスコア | 62点 | 85点 |
LLMOスコア | 38点 | 72点 |
特にLLMOスコアの伸びが大きかったのは、AIクローラーの許可とllms.txtの設置が効いたからです。どちらも難易度S~Aの簡単な作業なのに、効果が大きい。
これが、難易度ランクを入れた理由でもあります。「簡単なのに効果が大きいもの」から着手すれば、最小の手間で最大の効果が得られます。
AI活用や業務改善について、お気軽にご相談ください
無料で相談する無料で診断できます
サイト採点くんは無料で使えます。URLを入力するだけで、総合スコアとランクがすぐに出ます。
「自分のサイトがAI検索に対応できているか、まず知りたい」という方は、まず1回診断してみてください。
サイト採点くん でサイトのSEO・AI検索対応度をチェックできます。
FAQ
Q. 無料プランと有料プランの違いは?
無料プランでは総合スコアとランクが確認できます。有料プラン(月額980円)では、45項目すべての詳細結果、改善アクション(コード例付き)、サイト全体診断、競合比較などの機能が使えます。
Q. 診断にかかる時間は?
1ページの診断は数十秒で完了します。サイト全体診断(最大10ページ)は、ページ数に応じて1~3分程度です。
Q. 技術的な知識がなくても使える?
はい。改善アクションには「制作会社にこう伝えてください」という形式の説明がついているので、自分で修正しなくても制作会社への依頼時にそのまま使えます。
Q. SEOスコアとLLMOスコア、どちらを優先すべき?
どちらも重要ですが、現時点ではSEOスコアを先に改善することをおすすめします。Googleからの検索流入が現在のWebの主要な集客経路であることは変わりません。ただし、AI検索の利用者は急増しているので、LLMO対策も並行して進めておくと将来的な差別化になります。
Q. 他のSEO診断ツールとの違いは?
最大の違いは、LLMO(AI検索対策)スコアを独立して診断できる点です。10種類のAIクローラーの個別チェック、llms.txt対応チェック、改善アクションへの難易度ランク付けなど、AI時代のSEO対策に特化した機能を備えています。
