interest blog

サクッと読めるライトな記事に詰めた知識

【初心者】サーチコンソールの便利な使い方

グーグルが無料で提供するブログ・サイトの分析ツール「サーチコンソール(searchconsole)」の使用方法を解説します。※これは以前、ウェブマスターツールと呼ばれていたものです。

まず、「サーチコンソール」は自身のサイトやブログの状態を分析するツールだと認識してください。これを用いることによって、自分のサイト・ブログに対するペナルティーの有無や、障害の有無、その対処すべきことについて知る事が出来ます。

 

簡単に表現すると「自分のサイト・ブログの健康状態を知る事ができるのです。」

 

 

【目次】

 

 

1.ダッシュボード画面

まず、一番最初に現れる画面「ダッシュボード」です。

ここでは中央にある項目(赤丸と数字を振ってある)、に注意しましょう。

ダッシュボード

 ここでは、現在のサイトやブログのステータスが確認出来ます。

1-1.サイトマップ

サイトマップでは自分のサイトやブログからネット上に送信されたURLの数字と、それがインデックスされたURLの数が確認出来ます。

インデックスとは、検索結果に登録・表示される事だと思ってください。

1-2.検索クエリ

検索クエリでは、検索されたキーワードとそれが検索結果に表示された回数、クリック数が確認出来ます。また、それがグラフによって確認できます。

自分のサイトやブログの中でどの言葉が良く検索されているのか、どの言葉がクリックされているのか、どのような順位なのかということを確認して、SEO対策に生かすことが出来ます。

1-3.クロールエラー

クロールエラーでは、現在のサイトやブログに何らかのエラーが発生していないか確認出来ます。何らかのエラーが発生していれば早く対処しましょう。

1-4.サイトメッセージ

サイトのメッセージでは、グーグルからサイトへのメッセージが表示されます。日々確認しておきましょう。

これら4つは基本的な確認項目です。

 

2.検索のデザイン

検索のデザインでは、検索結果表示データに関する情報を変更したり出来ます。

2-1.構造化データ

構造化データ

構造化データでは、データハイライターで設定した(リッチスニペット)内容がどれだけ実効されたか確認することが出来ます。

 

パンくずリストなどのアイテム数などが確認出来ます。 

▶︎【SEO内部対策】パンくずリストをはてなブログで設置 - interest blog

2-2.データハイライター

データハイライターでは、サイト内のデータを検索結果で目立たせる設定(リッチスニペット)が行えます。

この設定により、検索結果で他の記事より自身の記事を目立たせることが出来るので、クリック率のアップに貢献できる可能性があります。

2-3.HTMLの改善

この項目では、重複するメタデータや長い、短いといったメタデータの情報、タイトルタグに関する問題、サイトのユーザーエクスペリエンスの向上のための改善情報を知る事が出来ます。

▶︎ブログのHTML改善!メタデータの重複をなくしてサイトパフォーマンスアップ! - interest blog

 2-4.サイトリンク

サイトリンクでは、指定したサイトリンクの検索結果での順位を下げる設定が出来ます。

【設定方法】

  • マスターツールHPで該当するサイトをクリック
  • 検索デザインのサイトリンクをクリック
  • 検索結果のURLボックスに、表示したくないサイトリンクURLが表示されている、検索結果ページのURLを入力する。
  • サイトリンクの順位を下げるボックスに、順位を下げたいサイトリンクのURLを入力する。

サイトリンク - ウェブマスター ツール ヘルプ引用)

 

3.検索トラフィック

検索トラフィックでは、検索クエリや内部リンク、サイトへのリンク、手動でのペナルティーの有無などが確認出来ます。

▶︎【google】ブログサイトのペナルティーを調べる方法! - interest blog

3-1.検索クエリ

検索トラフィック

検索クエリの「上位のクエリ」では、自身のブログ・サイトの中のどのキーワードがどれだけ検索結果に表示されたのか、どれだけクリックされたのか、そのCTR(クリック率)や平均掲載順位を知る事が出来ます。また、「上位のページ」では、どのページが多く表示されたのかや、クリック数、CTR、平均掲載順位を知ることが出来ます。

 

SEO対策を行う上では欠かせないデータがここで集められます。

 

やはり掲載順位が上位でなければクリック率は高くなりません。単純な例えで言えば、表示回数が多いキーワードがあれば、それらについて以前書いた記事に新たな情報を加えるリライト作業を行い、平均順位を上げる努力をしてクリック率を上げることが出来ると思います。

表示回数が多いという事は、多く検索結果に表示されている事柄であると言えます。クリック率を高める為に多く検索されているキーワードを発展させる対策をしましょう。

▶︎【ウェブマスターツール】検索クエリのデータ更新がアナリティクスでも滞っている - interest blog

3-2.サイトへのリンク

この項目は、自身のサイトへのリンクの数やリンク元、リンクされているページを知る事が出来ます。

 

言わば、「外部リンク」にあたるデータがある場所です。

 

上部にある「総リンク数」という数字があなたのサイトや記事への全てのリンク数です。

参考になるかは分かりませんが、私がこれまで調べた中で、多いか少ないかは分かりませんが、総リンク数30万という数字を見たことがあります。そのサイトはそこそこ有名で検索エンジンからの評価も高いサイトです。

3-3.内部リンク

これは、自身のサイトから自身のサイト内への(他のページ)へのリンクを知る事が出来ます。内部リンクです。

▶︎【seo対策】「内部リンク」と「外部リンク」について初心者にも分かりやすく書いてみる - interest blog

内部リンクはSEO上、タイトル、被リンクに次いで3つ目に来るほど重要な要素です。適正化する努力が必要です。

3-4.手動による対策

グーグルは多くのアルゴリズムを用いて、スパム行為などのあるサイトを監視しています。それらの行為が見つかったサイトへは手動にて検索順位を下げたり、検索結果から削除したりと対応します。その有無がここに表示されます。

ここにウェブスパムが見つかった旨が表示されたら速やかに対応しましょう。 

▶︎【google】グーグルが考えるスパム行為とは!?5つの注意すべきこと! - interest blog

3-5.モバイルユーザビリティー

ここでは、モバイル(携帯)でのサイトやブログの閲覧に際して、何らかの影響を及ぼしている問題(エラー)があれば表示されます。例えば、フォントのサイズが小さい、タップ要素同士が近すぎる、ビューポートが設定されていないといった問題が提起されます。

4.Googleインデックス

グーグルインデックスではグーグルにインデックスされたサイトやブログのステータスやコンテンツキーワードの情報が表示されます。また、URLの削除といった作業も出来ます。

4-1.インデックスステータス

インデックスステータス

ステータスでは、過去1年間のあいだにグーグルにインデックス(登録)されたURLについてのページの総数を知る事ができます。

更新頻度は週1程度です。

日々記事を更新していれば、数字は増えて行くのが通常で、もしも記事を削除などしていないのにkの数字が減る事があればグーグルにインデックス出来ないコンテンツがあるという事です。多少の減少なら慌てず様子をみる(1週間ほどで戻ることもある)。多くの減少が見られる場合は原因を探りましょう。

4-2.URLの削除

ここでは、表示したくないページなどを削除することができます。

例えば、個人情報に関する情報です。この目的以外で削除を実行するとサイトに問題が発生する場合があるようです。注意しましょう。

▶︎URL 削除ツールを使用すべきでない場合 - ウェブマスター ツール ヘルプ

5.クロール

クロールの項目では、グーグルボットのクロールによる結果、又はそれに関連するサイト、ブログの状態を知る事が出来ます。

▶︎【内部SEO】クローラーの巡回頻度を上げて検索順位アップ! - interest blog

5-1.クロールエラー

グーグルがサイトやブログをクロールして、エラーが発見されるとここにエラーの件数とそのページ、レスポンスコード(応答)、重要度が表示されます。PCのみならず、スマートフォンでのエラーの状態も知ることが出来ます。 

また、この「クロールエラー」のページは最初の「ダッシュボード」のページにも表示されているページです。サイト所有者は日々チェックしなければならない基本的な項目です。

 

【最低限知っておくべきレスポンスコード】

  • 404コード・・・ページが無いか、存在しないことを表しています。
  • 302コード・・・一時的にそのページが検索結果上から消えている状態。再度消えたページが戻ってくる。
  • 301コード・・・元々あったページは存在しないが、新しいページが結果に表示される。
  • 500コード・・・これはサーバーがダウンしたか故障したかの状況で表示される。他にも501や502、503などがあるが同じ意味だ。

 

5-2.クロールの統計情報

過去90日間の間のグーグルボットの活動状況を知ることが出来る。その内容は、一日当たりのクロールされたページ数や一日当たりのダウンロードされたキロバイト数、ページのダウンロード時間などだ。

勿論、一日当たりのクロールされるページ数やダウンロードされるキロバイト数、時間などは多いほうが良い。キメ細かくグーグルボットがサイト内を巡回しているという事になるからだ。

ある記事では、一日あたり「80ページ」以上をクロールされると良いというものを読んだ事がある。真意は定かではないが、ブログやサイトを始めたばかりの初心者は、当面の目標として80という数字を持っていても良いと思う。

また、クロールされたページ数が急に増加することがある。その時は検索順位が上昇する時だという記事も過去にあった。

サイト内のボリューム(記事等)が増えればある程度は数字が上がっていく。ボットの巡回が頻繁になることが、素早く情報を検索結果にインデックス(登録)することに繋がるので、この辺は注視していきたいところだ。

5-3.Fetch as Google

ここには「取得」「取得してレンダリング」という2つのボタンがあります。「取得」の場合は簡易チェックが出来、ネットワーク接続に異常がある祭やセキュリティーで何か問題が発生している場合に早く簡易的にチェックできるのです。

「取得してレンダリング」では、ページをクロールしてもらうようにグーグルボットに要請します。通常は、どのタイミングでボットがやってきてページをクロールし表示されるのかわかりません。この「取得してレンダリング」を使うことで通常より早くボットが来てクロールしてくれるのです。

5-4.Robots.txtテスター

これを使用すると、特定のURLをブロックする(表示させない)ことが出来ます。

また、特定のURLをクロール出来ないようにすることも出来ます。

【テスターで使用するキーワード】

  • User-agent:  ボットの種類を指定します。
  • Disallow:  クロールを拒否するものに使用します。
  • Allow:   クロール許可するものに使用します。

 

例えば、「User-agent:googlebot」と記入すると「グーグルのクローラー」を指定することになります。又、「User-agent:*」を記入すると「全てのクローラー」を対象にすることを意味します。

クローラーを指定したところで、次の行で拒否するのか許可するのかを指定します。

許可は殆どの場合使いません。もし使うのであれば拒否が多いと思います。

 

*使用には注意してください。設定を間違うとサイト内の全てのページがインデックスから消えることもあります。

5-5.サイトマップ

サイトマップをの追加やテスト、又、送信済みのコンテンツとインデックス済みのコンテンツの情報を知る事が出来ます。これもダッシュボードの画面に表示されているデータです。

 5-6.URLパラメーター

この項目では主に、重複するコンテンツを解消することが出来ます。

この項目では、必要な時以外使用しない事とされています。

 

設定を間違うと検索結果からデータが消えるからです。

 

最後に

この記事はどんどん追記していきます。初心者にもわかりやすく出来るよう自分の記事が参考に出来る作りにして行く考えです。