Google検索アルゴリズム261項目完全分析 “SEOの全て”

Pocket

Googleの数々の発表から、現在検索順位の決定に使われているアルゴリズムには数百の要素があることが伺えます。
その要素についてGoogleは毎日のように改良を加えており、その中にはパンダアップデートやペンギンアップデートのような大規模なものから、名前のない小さなものまで様々なアルゴリズムが存在します。

今回は独自の調査やGoogle社員の発言から、Googleがアルゴリズムとして検索順位の決定に利用していると考えられる項目を導き出し、発表した記事を翻訳してご紹介します。Google公式のものではなく、あくまで1個人(会社)の調査と考察よるものですが、各要因の信憑性まで書かれており、SEOを実践する上で非常に参考になる内容になっています。
※なるべく原文の表現を曲げないように翻訳しているため、日本語として読みづらい点等ございますが、ご容赦頂ければと思います。

元記事:Google Ranking Factors: 260+ Facts & Myths | Northcutt
※本記事は、オリジナル記事の著者に許可を取って翻訳し、公開しています。

Googleの順位決定要因

近年、Googleのオーガニック検索で上位表示するための情報が溢れかえっている。筆者は研究を通じて、それらの情報のほとんどど大多数が部分的に間違っているか、完全に間違っているかのどちらかだということを突き止めた。

それらの情報を鵜呑みにしてアドバイスしたり商品開発をしたりするのは危険である。正確な「要因」として残るのはたいてい、実際にはGoogleが「要因」として考えているものでは全く無く、ただのテクニックや間接的に相互関係があるだけのものがほとんどである。

しかし、Googleの利用している要因のかなり多くについて筆者は突き止めている。SEO知識というのはその辺のブロガーやフォーラムなどで得るものではない。本当に信頼のできる情報というのは下の3つからしか得ることができない。

  1. 特許情報
  2. Googleもしくはその社員の発言
  3. 科学的に正しく行われた実験

これらの情報があれば、Googleがどのように順位をつけているのかを突き止めることもできる。ちなみに議論の余地があるものやまったくの迷信に過ぎないものも含めた。また全ての要因はGoogleの一般検索の順位決定要因のみにフォーカスしている。

※訳注:原文のそれぞれの要因に対する信憑性は「concrete(確実)」「probable(もっともらしい)」「likely(ありえる)」「maybe(かもしれない)」「iffy(疑わしい)」「myth(迷信)」という表記だったが、訳文では上から順に「100%」「80%」「70%」「50%」「20%」「5%」と表記している。

ランキング要因 – 目次

    1. プラスに働く内部SEO要因
    2. マイナスに働く内部SEO要因
    3. プラスに働く外部SEO要因
    4. マイナスに働く外部SEO要因

▼各項目詳細を見る(クリック)

プラスに働く内部SEO要因

    1. URL内のキーワード【100%】
    2. URL前半部分のキーワード【80%】
    3. タイトルタグ内のキーワード【100%】
    4. ページ内のキーワード密度【70%】
    5. ページのTF-IDF【80%】
    6. Hタグ内のキーワード (H1, H2, etc.) 【80%】
    7. 強調表示された単語【100%】
    8. キーワードの近隣性【80%】
    9. ALTテキスト内のキーワード【100%】
    10. 検索フレーズの完全一致【80%】
    11. 検索フレーズの部分一致【80%】
    12. ページ上部のキーワード【70%】
    13. キーワード語幹【100%】
    14. 内部リンクのアンカーテキスト【100%】
    15. ドメイン名がキーワード【70%】
    16. ドメイン名内のキーワード【100%】
    17. ドメイン全体のキーワード密度【70%】
    18. ドメイン全体でのTF-IDF【70%】
    19. ページ権威の分布【100%】
    20. オールドドメイン【70%】
    21. 新規ドメイン【70%】
    22. ハイフンで区切られたURL内のキーワード【80%】
    23. タグ前部のキーワード【70%】
    24. 長期にわたるドメイン登録【70%】
    25. Whois情報の公開【50%】
    26. HTTPS(SSL)の利用【100%】
    27. Schema.org【70%】
    28. 新鮮なコンテンツ【100%】
    29. ドメイン全体での新鮮なコンテンツ【50%】
    30. 古いコンテンツ【100%】
    31. ドメイン全体での古いコンテンツ【50%】
    32. 質の高い外部へのリンク【100%】
    33. 関連のある外部へのリンク【50%】
    34. 正しい綴りと文法【70%】
    35. 読解レベル【20%】
    36. リッチメディア【70%】
    37. サブディレクトリ【70%】
    38. メタ・キーワード【5%】
    39. モバイル・フレンドリー【100%】
    40. メタ・ディスクリプション【20%】
    41. Googleアナリティクス【5%】
    42. GoogleGoogleウェブマスターツール(※訳注Search Console)【5%】
    43. ccTLDと国内検索【70%】
    44. XML Sitemaps【5%】
    45. Salience of Entities【70%】
    46. フレーズと文脈【80%】
    47. ユーザー付近のWebサーバ【80%】
    48. 著者の評判【5%】
    49. rel=”canonical”タグの使用【20%】
    50. rel=”author”タグの使用【5%】
    51. rel=”publisher”タグの使用【5%】
    52. “www” サブドメインの使用【5%】
    53. 専用IPアドレス【5%】
    54. サブドメインの使用【50%】
    55. サブドメインの数【50%】
    56. AdSenseの使用【5%】
    57. HTMLコメント内のキーワード【5%】
    58. CSS/JavaScriptコメント内のキーワード【5%】
    59. CLASS、NAME、ID内のキーワード【5%】
    60. プライバシーポリシー【50%】
    61. 立証された住所【20%】
    62. 立証された電話番号【50%】
    63. アクセス可能なコンタクトページ【50%】
    64. コンテンツに対するコード割合【50%】
    65. メタ・ソースタグ【20%】
    66. もっとページにコンテンツを【50%】
    67. メタ・ジオタグ【20%】
    68. 表示タイトル前部のキーワード【70%】
    69. Hタグ前部のキーワード【50%】
    70. 他より奇抜なコンテンツ【80%】
    71. 自己より奇抜なコンテンツ【80%】
    72. サイト全体でのユニークスコア【70%】
    73. コメントの数【20%】
    74. ポジティブな感想のコメント【5%】
    75. ドメイン全体で薄いコンテンツ【100%】

マイナスに働く内部SEO要因

    1. ドメイン評価が低い【100%】
    2. 過剰な内部リンク【80%】
    3. 過剰な外部リンク【100%】
    4. 過剰なフッターリンク【80%】
    5. 孤立したページ【100%】
    6. リンク販売【80%】
    7. 発リンク【5%】
    8. Body内の過剰なキーワード出現率【80%】
    9. キーワード出現の希薄化(内容の薄いコンテンツ)【80%】
    10. タイトルタグ内のキーワード出現率【80%】
    11. あまりに長いタイトルタグ【80%】
    12. Hタグ内のキーワード出現率【80%】
    13. Hタグの過剰使用【80%】
    14. URL内キーワードの繰り返し【70%】
    15. やたら長いURL【80%】
    16. ALTタグ内のキーワード出現率【80%】
    17. やたら長いALTタグ【80%】
    18. 長い内部リンクアンカー【70%】
    19. テキストに対してリンクが多い【50%】
    20. くどいほどの箇条書き【80%】
    21. 著作権違反【100%】
    22. ドアウェイページ【100%】
    23. 画像内のテキスト【100%】
    24. 動画内のテキスト【100%】
    25. リッチメディア内のテキスト【100%】
    26. 薄いコンテンツ【100%】
    27. 他ドメインとの重複コンテンツ【100%】
    28. 自ドメイン内での重複コンテンツ【100%】
    29. ペナルティを受けているサイトへのリンク【100%】
    30. noindexページ【100%】
    31. 内部リンクのnofollow【80%】
    32. アフィリエイトへのリンク【70%】
    33. 検索結果ページ【100%】
    34. 自動生成コンテンツ【100%】
    35. フィッシング【100%】
    36. 期限切れのコンテンツ【80%】
    37. 露骨なアダルトコンテンツ【70%】
    38. メタ・ディスクリプションのキーワードスタッフィング【50%】
    39. メタ・キーワードのキーワードスタッフィング【50%】
    40. スパムなユーザージェネレイトコンテンツ【80%】
    41. 分離していない外国語のコンテンツ【70%】
    42. 自動翻訳コンテンツ【80%】
    43. JavaScriptによる隠しコンテンツ【50%】
    44. CSSによる隠しコンテンツ【80%】
    45. 背景と同じ文字色【100%】
    46. 1ピクセルの画像リンク【100%】
    47. 空のリンクアンカー【100%】
    48. 太文字や斜体文字などを多用する【70%】
    49. 内部リンクエラー【100%】
    50. FrameとIframe【100%】
    51. 動的コンテンツ【70%】
    52. 過剰な広告【100%】
    53. ポップアップの使用【70%】
    54. robots.txtのdisallow【100%】
    55. メタまたはJavaScriptリダイレクト【100%】
    56. JavaScript内のテキスト【100%】
    57. 正しくないHTML/CSS【70%】
    58. 感染したサイト【70%】
    59. ページ上のコードエラー【50%】
    60. ソフトエラーページ【70%】
    61. サイトマップ優先度【50%】
    62. robots.txtが無い【5%】
    63. リダイレクトされている内部リンク【100%】
    64. 読み込みが遅い【100%】
    65. 環境の良くないIPアドレス【70%】
    66. あまりに長い応答時間【100%】
    67. プライベートWhois【50%】
    68. 嘘のWhois【20%】
    69. レジスタ単位でのペナルティ【20%】
    70. グローバル順位におけるccTLD【70%】
    71. パークドメイン【80%】
    72. サブドメインの使用【50%】
    73. サブドメインの数【50%】
    74. ページのHTTPステータスコード 4XX/5XX【100%】
    75. ドメイン全体でのエラーページの割合【50%】
    76. HTTP期限切れヘッダー【50%】
    77. サイトマップchangefreq【50%】

プラスに働く外部SEO要因

    1. ページに対する権威あるサイトからの被リンク【100%】
    2. ページに対するより多くの被リンク【100%】
    3. ドメインに対する権威あるサイトからの被リンク【100%】
    4. ドメインに対するより多くの被リンク【100%】
    5. ソーシャルシグナル【50%】
    6. ブランドサイテーション【5%】
    7. Cクラス分散したIP【20%】
    8. DMOZのリスティング【80%】
    9. .EDUドメインからのリンク【5%】
    10. .GOVドメインからのリンク【5%】
    11. ポジティブなリンク獲得速度【70%】
    12. 自然な割合のディープリンク【50%】
    13. Google+プロファイル【70%】
    14. Twitterのフォロワー【20%】
    15. Twitterのシェア【50%】
    16. FacebookのLike【20%】
    17. Facebookのシェア【50%】
    18. Google+のサークル【20%】
    19. Google+の「+1」【10%】
    20. より古いドメインからのリンク【50%】
    21. 高いMozRank/MozTrustスコア【5%】
    22. Googleへのサイト登録【5%】
    23. Google+ローカルで承認された住所【20%】
    24. キーワードアンカーテキスト【100%】
    25. 関連のあるサイトからのリンク【100%】
    26. 部分的に関連のあるアンカーテキスト【80%】
    27. 部分的に関連のあるALTテキスト【80%】
    28. タイトル属性のキーワード【5%】
    29. ALTテキストのキーワード【100%】
    30. リンクまわりの文脈【100%】
    31. 同一検索結果からのリンク【80%】
    32. クエリ/ページでのクリック率【70%】
    33. ドメインのクリック率【50%】
    34. ターゲットにしている国のccTLDからのリンク【70%】
    35. ターゲット地域IPからのリンク【70%】
    36. 被リンクの安定性【100%】
    37. 低い離脱率【50%】
    38. QDF(Query Deserves Freshness)【100%】
    39. Query Deserves Sources (QDS)【70%】
    40. Query Deserves Oldness (QDO)【70%】
    41. Query Deserves Diversity (QDD)【70%】
    42. セーフサーチ【100%】
    43. AdWordsの利用【5%】
    44. AdWordsを利用しない【5%】
    45. Chromeのブックマーク【50%】
    46. Chromeのサイトトラフィック【50%】
    47. ユーザの検索履歴【70%】
    48. Google Toolbar上での行動【50%】
    49. 低いAlexaスコア【5%】
    50. ブランドワード検索の合計+クリック【70%】
    51. 長い滞在時間(ロングクリック)【70%】
    52. サイトマップ登録ツール【20%】
    53. インターナショナルターゲッティングツール【70%】
    54. 再審査リクエスト【70%】

マイナスに働く外部SEO要因

  1. ページ権威の分散【100%】
  2. ドメイン権威の分散【100%】
  3. リンクまわりにコンテクストが無い【70%】
  4. 低品質なリンクまわりのコンテンツ【80%】
  5. 関連性のないリンクまわりのコンテンツ【70%】
  6. サイトワイド・リンク【80%】
  7. ネガティブな感情【70%】
  8. ネガティブSEO(Googleボウリング)【100%】
  9. リダイレクトによるペナルティ【70%】
  10. Chromeでブロックされているサイト【70%】
  11. 短い滞在時間(ショートクリック)【70%】
  12. 長い検索行動完了までの時間【50%】
  13. 同じ/24 IPからのリンク(クラスC一致)【70%】
  14. 過剰なクロス・サイトリンク構築【100%】
  15. フレッシュなアンカーテキスト【80%】
  16. 不自然なアンカー割合【80%】
  17. 不自然なアンカー種類割合【70%】
  18. 不自然なリンクサイトの種類【70%】
  19. Webスパムの痕跡【70%】
  20. アフィリエイト被リンク【20%】
  21. フッターリンク【80%】
  22. ヘッダー、サイドバーリンク【70%】
  23. 著者人物紹介リンク【70%】
  24. コンテクストの無いリンク割合【50%】
  25. 急激なリンクの増加【70%】
  26. 急激なリンクの減少【80%】
  27. 無関係サイトからのリンク【20%】
  28. ネガティブなページリンク速度【70%】
  29. ネガティブなドメインリンク速度【50%】
  30. ペナルティを受けたサイトからのリンク【80%】
  31. 選定されたコンテクストが無い【5%】
  32. 有料リンク計画【100%】
  33. コメントスパム【70%】
  34. フォーラム投稿スパム【70%】
  35. 記事広告(ネイティブ広告)【80%】
  36. フォーラム署名とプロファイルリンク【70%】
  37. WordPressスポンサーテーマ【70%】
  38. ウィジェットリンク【70%】
  39. リンクホイール【80%】
  40. 記事ディレクトリ【70%】
  41. 無名のWebディレクトリ【70%】
  42. 相互リンク【80%】
  43. プライベートネットワーク(リンクファーム)【80%】
  44. リンクビルディング【5%】
  45. リンクビルディング・サービス【5%】
  46. マイクロサイト(※訳注サテライトサイト)【5%】
  47. (不正な)クリック操作【70%】
  48. (不正な)ブランド検索操作【50%】
  49. Googleダンス【70%】
  50. 手動対応【100%】
  51. リンク否認【80%】
  52. クロール速度の変更【100%】
  53. インターナショナルターゲティングツール【50%】
  54. 法的な削除リクエスト【80%】
  55. DMCAレポート【80%】

 

プラスに働く内部SEO要因

内部SEO要因とは保有サイトを管理することで直接操作できるSEO要素のことである。

プラスに働く内部SEO要因では順位において良い結果をもたらす可能性のあるものについて述べる。このなかの幾つかの要素においては、乱用することにより、逆にマイナスの要因になってしまうものも含まれている。マイナス要素については後述する。

プラスになる内部SEO要因とは大雑把な言い方をすると、「コンテンツの内容」「あらゆる環境からのアクセシビリティ」「ユーザー体験への工夫」に関係するものである。

URL内のキーワード【100%】

ドメイン外のURL部分に含まれるキーワードや表現はそれらのクエリでの検索において、コンテンツとの関連性を確立する助けとなる。URLの長さが長くなりすぎたり、キーワードを繰り返し使用したりすることによりこの効果は薄れていく傾向にある。

ソース: Patent US 8489560 B1, Matt Cutts(http://www.stephanspencer.com/matt-cutts-interview/)

URL前半部分のキーワード【80%】

URL内のキーワード出現順番というものを要素化するとしたら、理論的に言えば前に出現するキーワードに比重がかけられているといえる. 少なくともマット・カッツの言葉を借りるなら「5単語くらいかそれ以降のキーワードにおいて効果は薄れていく」らしい。

ソース: Matt Cutts(http://www.stephanspencer.com/matt-cutts-interview/)

タイトルタグ内のキーワード【100%】

タイトルタグはサイト上の文章やページのタイトルを定義づけるものであり、同時に検索結果やSNS上でのシェア時におけるスニペット上にしばしば出現するタグである。 文字にもよるが、30文字を超えない範囲でつけることをおすすめする。URLと同じように、前半部分のキーワードに比重が置かれるという説が最も有力である。

ソース: US 20070022110 A1

ページ内のキーワード密度【70%】

テキスト内のキーワード密度。実践的なSEOでは過去に、5.5-6%のキーワード出現率が最も効果があると定義づけられたことがある。 確かに2000年代前半から中期にかけてはこの数字はかなり効果的であった。そのためGoogleはコンテンツ解析の方法を改良しており、2015年現在においてこの方法はほとんど効果がないと言って良いだろう。キーワードの出現率が高すぎた場合、手動対策の対象となる場合がある

ソース: Patent US 20040083127 A1

ページのTF-IDF【80%】

TF-IDF もしくは「単語の出現頻度及び逆文書頻度」とよばれるものについて述べよう。TF-IDFは通常計測した際のページ内キーワード密度よりも、「普通ではない」キーワードの出現率に対して重きを置くよう設計されている。 この計測方法では「その」のような、頻出する単語は計測から除外され、たとえば「Googleの順位決定要素」といった表現が、学問的教養を持った人間がそのトピックについて述べたドキュメントにおいて何回出現するのかを確定させることができる。

ソース: Dan Gillick and Dave Orr (http://googleresearch.blogspot.com/2014/08/teaching-machines-to-read-between-lines.html), Patent US 7996379 B1

Hタグ内のキーワード (H1, H2, etc.) 【80%】

Hタグ内のキーワードはページの主題を定義する際に強く比重のかけられるポイントである。H1タグに最も比重がかけられ、次にH2、H3と続くほど少なくなっていく。Hタグは訪問者のユーザー体験を向上させ、明確で記述的なHタグは直帰率を下げることが多くの研究で明らかになっている。

ソース: In The Plex (http://www.amazon.com/In-The-Plex-Google-Thinks/dp/1455875724), Penn State (http://accessibility.psu.edu/headingshtml/)

強調表示された単語【100%】

太文字や斜体、下線、大きめのフォントなどによって強調表示されたキーワードはページの主題を決定する際にHタグほどではないが大きな比重をかけられる。このことはマット・カッツやSEO研究家によって立証され、Googleの特許には「大きなフォントか太文字、もしくは斜体で記載されたテキストはそうでない通常のテキストに対して重い比重がかけられるかもしれない」と記述されている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=awto_wCeOJ4), Patent US 8818982 B1

キーワードの近隣性【80%】

お互いの単語同士の近さはそれらの関連性を暗に示している。英語を扱える人にとってこの情報は驚くに値しないことであると思う。つまり、1つの文章内で「渋谷のピザ屋」について述べた文章のあるページほうが、「渋谷」と「ピザ屋」について別々の文章で述べているページよりも「渋谷 ピザ屋」というキーワードで上位表示される可能性が高い。

ソース: Patents: US 20020143758 A1, US 20080313202 A1

ALTテキスト内のキーワード【100%】

画像ファイルのALT属性は検索エンジンや画像を表示できない環境のユーザーに対してその画像の内容を示すのにつかわれる。これは特に画像検索での関連性の向上や、ユーザー体験の向上に繋がる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

検索フレーズの完全一致【80%】

Googleは検索クエリのうちほんの一部しかコンテンツに含まれていないページを返すこともある(もしくは全く含まれていないケースもある)が、特許によると「情報検索スコア(IR)」は検索フレーズの完全一致に高い点数をつけるように設計されている。具体的にあげるとするなら、特許の「検索クエリの全ての言い回しに完全一致するドキュメントは、一部一致するドキュメントよりも高い点数が与えられるべきである」という部分に当てはまる。

ソース: Patent US8818982 B1

検索フレーズの部分一致【80%】

これはGoogleの特許により立証されていることだが、ページが検索フレーズと完全一致するフレーズをコンテンツに有していた際、それはクエリとの関連性を強く認められIRスコアを高く付けられる。この過程においてGoogleに入力された検索クエリと完全一致しないフレーズしかコンテンツ内にないとしても、そのクエリで順位が付く可能性は十分にあることをGoogleは認めている。これは、色々なクエリでグーグル検索をした結果を鑑みても明らかである。

ソース: Patent US8818982 B1

ページ上部のキーワード【70%】

これは英語におけるきわめて自然な文法傾向といえるのだが、通常大事なことは先に言おうとする。これは文や文章、ページからHTMLのタグにいたるまで全てに当てはまることである。Googleもどうやらこの事実をあらゆる場所で適応しているようで、ページの上部やより目立つ場所のコンテンツに比重をおいているようだ。少なくともページレイアウト・アルゴリズムにおていてはサイトの上部(above-the-fold)にあるコンテンツが優先されるように設計されている。

ソース: Matt Cutts (http://insidesearch.blogspot.com/2012/01/page-layout-algorithm-improvement.html)

キーワード語幹【100%】

キーワード語幹とは単語の根っことなる部分を取り出し、同一基語を持つ単語を探すことである。キーワード出現率スコアのかさ増しが横行して、読めたものではないページが増えたことをうけ、2003年にフロリダ・アップデートとともにGoogleにより導入された。

ソース: Matt Cutts (https://www.youtube.com/watch?v=NpnnXt7CHMU)

内部リンクのアンカーテキスト【100%】

リンクのアンカーテキストは、そのリンクの飛び先をユーザーに伝えるためのものである。これはサイト内のナビゲーションを構成する上で重要な要素で、且つ乱用しない場合に限り「ココをクリック」などという曖昧な内部リンクよりもコンテンツとキーワードの関連性を高めるのに効果的である。

ソース: Google’s SEO Starter Guide

ドメイン名がキーワード【70%】

これは完全一致ドメイン(EMD)にも関連することだが、ドメインと検索クエリが完全一致しGoogleの定義する「商業クエリ」に当てはまる場合、順位にボーナスが与えられる。ブランドがそのブランド名で上位表示されるべきという構想のもとデザインされたものであったが、あまりにも悪用するケースが増えすぎたため、現在では多くの場合で効果が減少している。

ソース: Patent EP 1661018 A2, US 8046350 B1

ドメイン名内のキーワード【100%】

キーワードがドメイン名内に含まれる場合、順位にボーナスが与えられる。その比重は特定の検索クエリとドメイン名が完全一致する場合よりは低いが、ドメイン名以降のURLにキーワードが含まれる場合よりは高くなっている。

ソース: Patent EP 1661018 A2

ドメイン全体のキーワード密度【70%】

クリシュナ・バーラットはヒルトップ・アルゴリズムを導入する際にページランクの持つ問題点を次のように割り出した。「(ページランクによって)権威付けられたWebページが例え検索クエリに一致するコンテンツを有していたからといって、そのクエリのトピックについての権威であるとは限らない」。ヒルトップ・アルゴリズムはサイト全体の関連性を見て「専門的」というラベル付を行って検索結果の向上を行っていた。TF-IDFがページ単位での関連性を決定づけるものであるため、ヒルトップ・アルゴリズムが同じような機能を使ってドメインの「専門性」を決定づけていると推測したものである。

ソース: Krishna Bharat (ftp://ftp.cs.toronto.edu/pub/reports/csri/405/hilltop.html), Patent US 7996379 B1

ドメイン全体でのTF-IDF【70%】

もし2015年現在において「ターム頻度(TF)の代わりにキーワード密度なんて言葉を使おうものなら、SEOの専門家たちがこぞって怒り出すことだろう。その2つの単語はほぼ同義語といっても過言ではないのにかかわらずだ。キーワード密度とTF-IDFの要素比較をする際に重要となってくるのはIDFの部分、すなわち逆文書頻度(Inverse Document Frequency)に他ならない。Googleは副詞のような単語をTF-IDFを利用して除外し、トピックに対する自然なキーワード密度を動的に見積もっている。「どれくらいが自然なのか?」という比較計量をすると、時間とともに数値は減ってきているようである。

ソース: Dan Gillick and Dave Orr (http://googleresearch.blogspot.com/2014/08/teaching-machines-to-read-between-lines.html), Patent US 7996379 B1

ページ権威の分布【100%】

一般的にサイト全体からリンクされているページは権威が高くなり、そのページからのリンク、さらにその下となるにつれ権威は低くなっていく。同じような効果がトップページからリンクされているページに見られるが、これはほとんどのサイトにおいてトップページが一番リンクされているページだからである。この要因を最大限利用しようとして内部リンク構造を作ることはページランク・スカルプティングとして知られている。

ソース: Patent US 6285999 B1

オールドドメイン【70%】

完全に新しいドメインもアルゴリズムによって一時的なブーストがかかることがあるため混乱しがちだが、オールドドメインの方がほんのすこしだけ(マット・カッツがほんのちょびっとというところを強調していた)信用される。つまり、ぽっと出のドメインよりはブラックハットな一時的なドメイン利用でないと証明できる可能性がほんのすこし高いということである。

ソース: Matt Cutts (https://www.youtube.com/watch?v=-pnpg00FWJY)

新規ドメイン【70%】

新規ドメインは一時的な順位ブーストがかかることがある。特許には新しいコンテンツの決定方法についての協議がなされており、そこには「ドメイン登録日時のドキュメント開始日時の指標としての使用」に関する項目がある。マット・カッツによれば、この項目が順位に与える影響は相対的にかなり小さいものだということだ。言うならば、この項目は真新しいサイトや、タイムリーなニッチサイトが飛躍するのに十分なチャンスを与えられるために存在しているにすぎない。

ソース: Patent US 7346839 B2, Matt Cutts (https://www.youtube.com/watch?v=-pnpg00FWJY)

ハイフンで区切られたURL内のキーワード【80%】

URL内のキーワードを区切る理想的な方法はハイフンを利用することと言えるだろう。アンダーバーも利用できるにはできるが、プログラミングパラメーターと混同される可能性があるためあまり信頼性は高くない。全てのキーワードをつなげてURLに入れてしまうと、複数キーワードとしてみなされない可能性があり、結果どのキーワードでもURL内含有キーワードとしての効果の妨げとなることがある。ちなみにこれ以外の理由でハイフンを利用したからといって、順位に対してポジティブな影響をあたえるわけではない。

ソース: Matt Cutts (https://www.youtube.com/watch?v=AQcSFsQyct8)

タグ前部のキーワード【70%】

2000年代はじめに提唱されたSEO理論に、「最初の1/3ルール」というものがあった。これは我々の言語(英語)において、文であれタイトル、文章、ひいてはWebページ全体であれ、一般的に並び順は重要度順であることに起因している。

ソース: 考察による

長期にわたるドメイン登録【70%】

Googleは特許のなかで、長期にわたるドメイン登録がドメインの正当性を予測するのに信頼たるものであると直接明言している。考えてみればこれは、「短期的で、数の暴力に売って出てくる、イタチごっこ故に必要以上に長期登録するドメインを持たないWebスパム」に対抗するための手段なのかもしれない。

ソース: Patent US 7346839 B2

Whois情報の公開【50%】

Googleは彼ら自身のドメイン登録情報を調査する能力を低く見積もっているにも関わらず、ドメイン登録情報を利用したWebスパム選別のための特許をGoogleが保有しているというのはあまりに有名な話である。またマット・カッツが非公開whoisがペナルティ要因の引き金なる可能性があるという話をしているのを見たことがあるし、彼のブログの読者にニセのwhoisデータを報告するように促しているのを見たこともある。ただこれはあくまで、無意味にネガティブな要因になってしまわないように「石橋を叩いて渡る」程度のものにすぎないであろう。

ソース: Patent US 7346839 B2, Matt Cutts (https://www.mattcutts.com/blog/2006-pubcon-in-vegas-thursday-site-reviews/)

HTTPS(SSL)の利用【100%】

SSLはユーザーの情報入力をともなうか否かにかかわらず、2014年に正式にポジティブな順位要因として組み込まれた。ゲイリー・イリーズは2015年にSSLの重要性を低いものとし、ただ単なるタイブレーカーとしての役割にすぎないと表現している。数値スコアをベースとしているアルゴリズムが見ているサイトは何十億とあるのにもかかわらず、競争率の高いクエリにおいてタイブレーカーが意味をなしていることは意外と多い。

ソース: Google (http://googlewebmastercentral.blogspot.com/2014/08/https-as-ranking-signal.html), Gary Illyes (https://twitter.com/methode)

Schema.org【70%】

GoogleとYahoo!、Bing、Yandex の共同プロジェクトであるSchema.org の出現により、キーワードが潜在的にもつ理論データを理解できるようになってきた。その結果、検索結果ページは、我々のおなじみの「10この青いリンクページ」から大分進歩したといえるだろう。いまのところ構造化データの利用は、あらゆる種類の状況下で順位を伸ばす可能性を持っている。また伝統的な順位においても、entity salience(※訳注 とあるキーワードに対してGoogleが一般的に知られる情報を自動で結びつけて関連性を判断すること)として知られる順位要素を満たすことで有利になる可能性はある。

ソース: Schema.org (https://www.schema.org/), Matt Cutts (https://www.youtube.com/watch?t=37&v=OolDzztYwtQ)

新鮮なコンテンツ【100%】

技術的な正式名称を言うならば「鮮度依存するクエリにおけるコンテンツの新鮮度」となるだろうか。この項目では通常QDFと呼ばれる、すなわち新しいコンテンツということに価値を置く意味があるクエリに関して述べる。これは全てのクエリに対して適応されるわけではないが、特に情報分野におけるクエリなど、かなり多くの場合に適応される。この恩恵を顕著に受けているのが、ブランド出版サイトと言えるだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=NNm0FZ40haU)

ドメイン全体での新鮮なコンテンツ【50%】

これはドメイン全体でのコンテンツの新鮮さを保った場合におけるパフォーマンスの確証されていない考察である。考えるに、リソースを全体的に見た時Googleはなるべく石化された情報が少ないことを推奨しており、更には情報の正確性・関連性、さらには少なくとも一部の重要な情報においてはサイトオーナーによる時折のアップデートや補足の追加をすることをGoogleは求めている。

ソース: Patent US 8549014 B2, Speculation

古いコンテンツ【100%】

Googleの特許には「あるクエリにおいては、古いドキュメントが新しい物より価値があるものもある」と記述されている。そこにはドキュメントの平均の古さを考慮して検索結果を表示する前に並び替える可能性があることも示唆されている。

ソース: Patent US 8549014 B2

ドメイン全体での古いコンテンツ【50%】

理論的に判断して、QDFのようなニュース系のコンテンツが優遇されるアルゴリズムがある以上、その逆の「古さ依存クエリ(QDO)」のようなものが存在する可能性は否定できないだろう。
Googleの口からQDOについての言及がなされたことがないことを考慮すると、QDFが働いていないときは、古いコンテンツの方が優遇されている可能性が高いと考えると辻褄があう。ただ、ドメイン全体でのコンテンツ新鮮さの項目同様、この理論を証明するに足る証拠は何もない。

ソース: 考察による

質の高い外部へのリンク【100%】

外部へのリンクは「ページランクの流出」を招く可能性があるにはあるが、Webサイトというものは本来行き止まりであるべきではない。Googleは「良いサイト」に対する外部リンクに評価を与える。マット・カッツの言葉を拝借するなら「我々(Google)のシステムは良いサイトに対してリンクすることを推奨している。」

ソース: Matt Cutts (https://www.mattcutts.com/blog/pagerank-sculpting/)

関連のある外部へのリンク【50%】

Googleが被リンクを分析してサイトの権威付けや関連性、文脈判断を行っているのと同様、外部へのリンクでも同じようなことをしていると考えるのは極めて自然なことである。ヒルトップ・アルゴリズムと結びつけることもできるだろうが、単なるリンク返しとしての慣例として行われているだけのことも多い。

ソース: Moz (https://moz.com/blog/external-linking-good-for-seo-whiteboard-friday)

正しい綴りと文法【70%】

これはBingの順位要素であるが、Googleのアミット・シンハルも次のように述べている。「我々もこれと同じようなことを求めている」つまり、綴と文法の正確性をコンテンツの質として考慮するということをだ。マット・カッツは2011年に「ずっと昔はね」という言葉とともにこの要素を使っていることを否定したが、何らかしらの要素で順位との相互関係はあるだろう。
例えば、一番最初のパンダ・アップデートではかなり誤字脱字と文法ミスの影響があったように感じた。それはともかく、コンテンツに関係のある要素が綴りと文法に左右されないはずがないだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=qoFf6Kn4K98), Amit Singhal (http://googlewebmastercentral.blogspot.com/2011/05/more-guidance-on-building-high-quality.html)

読解レベル【20%】

検索結果ページのフィルタ(現在は存在しない)を作ったことを鑑みても、Googleはコンテンツの読解レベルを分析しているだろう。また、フィルタではGoogleの大嫌いなコンテンツ・ミルのような低品質なものは初級、学術文書は上級に振り分けられていた。しかし、今のところ読解レベルがランキングに関連付けられていることを示す証拠も研究結果もない。

ソース: Correlation Study (http://linchpinseo.com/seo-reading-level-college-websites?doing_wp_cron=1438687120.9494879245758056640625), 考察による

リッチメディア【70%】

画像検索や動画検索からより大きなトラフィックを生むようなリッチメディアは「質の高いオリジナルコンテンツ」とみなされるに足るものであるといえよう。動画はパンダ・アップデート2.5の決定要因として利用されたようでもある。ただ、今のところこの要素を確定させる確固たる証拠は発表されていない。

ソース: SEL on Panda 2.5 (http://searchengineland.com/google-panda-losers-today-show-winners-youtube-95257)

サブディレクトリ【70%】

カテゴリ別情報設計についてのSEO議論は、Googleがサイト全体のトピック分布を分析しているらしいという情報もあって、長いことなされてきた。これがランキングにもたらす影響がどれほどのものかははっきりとはわからない。ただGoogleはこの情報を構造化データの参考としているし、少なくともパンくずが検索結果ページに表示されるようになったので、より多くのページをランキングさせることはできる。

ソース: Google Developers (https://developers.google.com/structured-data/breadcrumbs)

メタ・キーワード【5%】

あるSEO専門家によればメタ・キーワードはもうSEOに何の意味も持たないらしい。これは迷信である。またGoogleが2015年現在メタ・キーワードをランキング要因に利用しているという意見を聞いたならそれもまた迷信に過ぎない。この2つの事実は同じ方法で証明することができる。競合の全くいない、つまり勝手にでっち上げたキーワードをメタ・キーワードにいれたページをインデックスさせ、そのキーワードで検索してみればいい。
覚えておいて欲しいのは、Googleだけがこの世の検索エンジンの全てではないということだ。そして、このタグによって恩恵を受けている動的サイトが星の数ほどいるということを。

ソース: Matt Cutts (https://www.youtube.com/watch?v=jK7IPbnmvVU), Experiment Page (https://northcutt.com/searchenginestunts.html)

モバイル・フレンドリー【100%】

モバイル・フレンドリーなサイトは著しい順位恩恵を受ける。今のところ、この要因で影響を受ける順位は、ユーザーがモバイル・デバイスを利用して検索をした場合の順位に限定されている。このことは、モバイルがSEOのなかでも主流になったことを意味し、2015年のモバイル・アップデートで決定的なものとなった。とはいえ、この流れになることを専門家たちは10年近く前から予見していたが。

ソース: Various Studies (http://searchengineland.com/mobilegeddon-beginning-not-ending-220512)

メタ・ディスクリプション【20%】

良いメタ・ディスクリプションというのは検索広告のような働きをする。AdWords上でのA/Bテスト をするためだけにこれだけ多くのAdWords代行会社が存在していることを見ても、この分野がどれほどマーケティング価値のあるものかということは明白である。ディスクリプション内のキーワードは順位に影響があると広く考えられていたこともあったが、2009年にマット・カッツがもう利用していないと明言した。

ソース: Matt Cutts (http://googlewebmastercentral.blogspot.com/2009/09/google-does-not-use-keywords-meta-tag.html)

Googleアナリティクス【5%】

多くの人がGoogleアナリティクスがすでに、もしくはそのうち順位決定要因になるのではということを示唆している。今現在のどんな証拠、マット・カッツが明確に発言したことも含め、Googleアナリティクスが順位に影響を与えている、もしくは与えるようになるという考えはまったくもって迷信に過ぎない。まさにGoogleの言うとおり、マーケターの強い味方になる究極のツールに過ぎない。

ソース: Matt Cutts (https://www.youtube.com/watch?v=CgBw9tbAQhU)

Googleウェブマスターツール(※訳注現Search Console)【5%】

Googleアナリティクス同様、Googleウェブマスターツールを利用することによる順位恩恵があることは確証されていない。そういうことではなく、Googleウェブマスターツールは他の順位要因を見つけ出すのには絶大な効果を発揮する。特に手動対応ペナルティとクロールエラーの原因解明などだ。

ソース: 考察による

ccTLDと国内検索【70%】

例えば.jpや.ukなどのCountry code TLDは、Webの国際化が進んだことも有り、そのドメイン対象国内での検索順位に良い影響をもたらすと信じられている。特に別の国のccTLDサイトと比べたとき顕著になると考えられている。

ソース: 考察による

XMLサイトマップ【5%】

強制ではないが、Googleにサイト上のより多くのページをインデックスさせるという目的があるならサイトマップは役に立つ。覚えておいて欲しいのはXMLサイトマップがランキングに良い影響を与えているというのは全くの迷信に過ぎないということだ。このことはGoogle自身や、その他多くの研究結果からも明らかである。

ソース: Susan Moskwa & Trevor Foucher (http://googlewebmastercentral.blogspot.com/2008/01/sitemaps-faqs.html)

Salience of Entities【70%】

時間とともにGoogleは単語やフレーズの解析そのものよりも、それらの持つ意味や理論的本質性というものの解析に重きを置くようになったようである。それはページ上に含まれているキーワードクエリというものを、一般ユーザーがどういうクエリに置き換えるのかを知るための研究である。わかりやすく例えると、どうしたら「肉料理の方法」という検索クエリで、どこにも「肉料理」というキーワードの出てこないステーキのレシピページを検索結果に返すことができるのかというようなことである。

ソース: Jesse Duniet, Dan Gillick (http://static.googleusercontent.com/media/research.google.com/en//pubs/archive/42235.pdf), Dan Gillick, Dave Orr, Patent US 20130132433 A1

フレーズと文脈【80%】

キーワード出現率が実質上意味を持たなくなってきたため、基本的なフレーズベースのインデックス理解は、ただたんにキーワードを全体に詰め込んだコンテンツよりも、全体的にかつ精巧に書き上げたコンテンツのほうが良い順位を与えられるものになっていると考えて間違いないだろう。Googleの特許の中でこの要素は「関連フレーズの同一性及び集団的関連フレーズ」と表現されている。

ソース: Patent US 7536408 B2

ユーザー付近のWebサーバ【80%】

Googleは多くのローカルクエリと伝統的なGoogleマップ検索、オーガニック検索では違う働きをする。同じことは国内検索と国際検索でも言える。サイトを、少なくとも検索ユーザーと同じ国内のサーバでホストすることは検索結果に影響を与えることがある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=keIzr3eWK8I)

著者の評判【5%】

Googleによって2011年から2014年まで実験されていたオーサシップは、ブロガーが特定の著者の評判確立のために記事に「rel=”author”」を設置するようになったことにより目標達成した。オーサシップが終了したことはGoogleによって直接公表された。エリック・エンジはSearch Engine Land上でオーサシップの繁栄と没落についてとても良い追悼記事を公開している(http://searchengineland.com/goodbye-google-authorship-201975)。

ソース: John Mueller (https://plus.google.com/u/0/+JohnMueller/posts/HZf3KDP1Dm8)

rel=”canonical”タグの使用【20%】

rel=”canonical”タグは同一ページのURLを示唆するのに利用されている。これにより重複コンテンツによる評価減とペナルティを防ぐ事ができる。これはあくまでも提示であり、ときにはGoogleによって無視される場合がある。Googleによると、タグ利用による直接の順位貢献は一切ない。それらの事情を考慮しても、このタグを利用するのはとても良いことと言えるだろう。

ソース: Google (https://support.google.com/webmasters/answer/139066?hl=en)

rel=”author”タグの使用【5%】

rel=”author”タグの使用はかつてSEOアドバイスと順位要因仮説の大定番だったが、オーサシップの消滅とともに何の意味も持たなくなってしまった。rel=”author” にまつわるいかなる「おいしい話」も現在において全て迷信である。

ソース: John Mueller (https://plus.google.com/u/0/+JohnMueller/posts/HZf3KDP1Dm8)

rel=”publisher”タグの使用【5%】

rel=”author”同様、rel=”publisher”タグの使用もSEOの定番のアドバイスだった。 そしてやはり同様にオーサシップとともに消え去っていく運命にある。

ソース: John Mueller (https://plus.google.com/u/0/+JohnMueller/posts/HZf3KDP1Dm8)

“www” サブドメインの使用【5%】

SEOブロガーがよく言う勘違い甚だしい噂の1つが「www」から始まるURLの方が順位が良いというものだ。この噂の元となっているのはどのURLも「www」から始まるURLに統一しているサイトが多いからだろう。これをやっている理由は明白で、単純に同じコンテンツ・同じアドレスなのに「www」ありなしの2つの重複サイトができてしまわないようにし、マイナス要因になるのを防いでいるのである。

ソース: 考察による

専用IPアドレス【5%】

WebサーバのIPアドレスは地域ターゲットのマーケティングを行っている幾つかのケースにおいて役に立つ。もしも、スパムサイトだらけのIPに同居してしまったらマイナス要因になることもあるだろうし、またIPアドレスによってヒルトップ・アルゴリズムは2つの別々のサイトがはたして同一人物によって運営されているのか否かを特定したりしている。1つ言っておくなら、専用IPを使用することそのものがプラスのランキング要因として働くことはないということだ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/myth-busting-virtual-hosts-vs-dedicated-ip-addresses/)

サブドメインの使用【50%】

サブドメイン(thing.yoursite.com)はしばしばGoogleによって、別サイトとしてみなされることがある。サブフォルダ(yoursite.com/thing/)との違いはココであると言えるだろう。2012年のマット・カッツいわく、サブフォルダもサブドメインも「だいたい同じ」で、そこまで違いが顕著に出ることはないが、ときどき出るらしい。2012年のパンダ・アップデートからのHubPagesの回復事例で、サブフォルダからサブディレクトリへの移管という方法が有ったのだが、そのことを鑑みるとまだまだ大きな要因であると思われる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=_MswMYk05tk), Matt McGee and Paul Edmondson (http://searchengineland.com/google-panda-two-years-later-5-questions-with-hubpages-ceo-paul-edmondson-149767)

サブドメインの数【50%】

サイト上のサブドメインの数はサブドメインがそれぞれで全く別のサイトとして使用されている(無料のWebホスティングサービスやHubPagesのようなホスティングとSNSのハイブリッドサービスなどがよく使用している)のか、それとも単純に同一サイトの一部として使用されているのかを判断するための、最も顕著な要因といえる。例えば、何千ものサブドメインを有するサイトなら、それは同一テーマにそった1つのサイトとして存在しているわけではなく、それぞれのサブドメインごとに別の運営者がいると考えられる。

ソース: 考察による

AdSenseの使用【5%】

SEO偏執者がよく提案してくることがあるようだが、Googleによって完全に否定されている。AdSense利用による影響の証拠も、メディアマネタイズの方法による順位影響の証拠も見つかっていない。よってこれは迷信といえるだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=V62Zrb5gFUU)

HTMLコメント内のキーワード【5%】

これは初期のSEO理論で、ほんのちょっとした実験で簡単に間違いを指摘することができる。適当にでっち上げた競合の存在しないキーワードをHTMLコメント内に埋め込んだページを用意し、それをインデックスさせる。そのキーワードで検索をかけて見れば検索結果に出てこないことがわかるだろう。

ソース: Experiment Page (https://northcutt.com/searchenginestunts.html)

CSS/JavaScriptコメント内のキーワード【5%】

これもひねくれた初期の SEO理論のひとつで簡単に暴けるものだ。上記のものと同様の実験をすればいい。

ソース: Experiment Page (https://northcutt.com/searchenginestunts.html)

CLASS、NAME、ID内のキーワード【5%】

これも上記と同様。

ソース: Experiment Page (https://northcutt.com/searchenginestunts.html)

プライバシーポリシー【50%】

とある体験が2012年にWebmaster World に投稿され、のちに大論争へと拡大していった、すなわち「プライバシーポリシーを載せていることはランキングにプラスになるのか?」議論である。Search Engine Roundtableの30%が「Yes」と回答し、Googleの方針には沿っているといえよう。依然として、仮説の域を出てはいないが。

ソース: SER Discussion (https://www.seroundtable.com/privacy-policy-google-seo-14899.html)

立証された住所【20%】

住所は通常のランキングにおいて、正当性を示しているのではないかと考えられている。もしかしたらGoogleは名前や住所、電話番号などを統括的に参照してローカルSEO(Googleマップでの検索)には組み込んでいるのかもしれない。また、「信頼できる連絡先情報の記載」はGoogleの品質調査員たちが確認するように指示されている項目である。

ソース: Search Engine Land (http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

立証された電話番号【50%】

同上。

ソース: Search Engine Land (http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

アクセス可能なコンタクトページ【50%】

正当性を示すものとして使われている可能性があるとする説もある。この項目は「Google品質評価ガイドライン」という文書の中で「ベストなサポート」という評価の項目で示されている。この文書内でGoogleは、評価者たちに「信頼できる連絡先情報」を探すことを求めている。

ソース: Search Engine Land (http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

コンテンツに対するコード割合【50%】

「もっとコンテンツを、そしてなるべく少ないコードで」と提唱されたこのSEO理論は、2011年あたりから広まり始めた。知っている限りの情報で言えば、

1)ページ読み込み速度は要因として確証されている
2)Googleのもっているページ読み込み速度測定ツールは高性能で、データ伝達量がたった5kb減っただけでも感知できる
3)ほんのちょっとしたコードミスが評価減やペナルティの原因になることもある

以上のことより、すくなくともこの要素は間接的に相関関係をもつ可能性はある。

ソース: SitePoint Post (http://www.sitepoint.com/text-to-code-ratio/), SEOChatTool (http://tools.seochat.com/tools/code-to-text-ratio/)

メタ・ソースタグ【20%】

メタ・ソースタグは2010年にGoogleニュースで、ソース元をより正確にしめすために作られた。これらは「同時配信ソース(第三者と同時配信している場合)」と「オリジナルソース(あなたの記事がオリジナルの場合)」の2つの形態に分けられる。もし複数サイトで同一コンテンツを同時配信している場合、理論的に重複コンテンツペナルティを防ぐことができる。もしあなたのサイトの記事がオリジナルの場合は、このタグはrel=”canonical”タグによって上書きされる。

ソース: Eric Weigle (http://googlenewsblog.blogspot.com/2010/11/credit-where-credit-is-due.html)

もっとページにコンテンツを【50%】

SerpIQはコンテンツの長さがランキグに与える影響を調べるための面白い調査を行った。その結果、 2000-2500単語くらいのコンテンツが一番良いという結果に至った。ただ、その他の要因がどれほど影響しているのかの明白な調査がない。例えば、SNSでシェアされやすかったため結果としてリンクが沢山ついたとか、順位が良いことでさらに露出が増えて成長し続けているとか、クエリによって変化しているとかである。

ソース: SerpIQ (http://blog.serpiq.com/how-important-is-content-length-why-data-driven-seo-trumps-guru-opinions/)

メタ・ジオタグ【20%】

IPアドレスやccTLDと違い、マット・カッツによると「もしそうだとしても、まぁほとんど見ることはない」タグである。とはいえ、彼はこのタグをgTLD(.comのようなドメイン)のサイトを利用している場合、地域特定を行うために使用することを考えるよう提案している。つまり、ほぼほぼ役にたたないタグだとは認められているものの、国際化対応においては、ごくごく稀なケースでGoogleによって使われる場合があるということだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=JD0y0Jk-zzQ)

表示タイトル前部のキーワード【70%】

10年以上、キーワードから始まるタイトルのほうが、キーワードで終わるタイトルより順位が良くなるのかどうかの研究がなされてきた。簡単に調査することができ、殆どの場合において「キーワードから始まるほうが良い」という結果になる。もっと詳しい情報を載せているソースもある。Thumback.comの調査では、タイトルのキーワード順番の並び替えで20~30%程のトラフィック変化が起こった。また、彼らの調査の中で、一番トラフィックの良かったページのタイトルはキーワードから始まるものではなかったが、Googleによって検索結果ページではタイトルが書き換えられており(https://www.youtube.com/watch?v=L3HX_8BAhB4)、キーワードから始まるものになっていたようだ。

ソース: Thumbtack Study (https://www.thumbtack.com/engineering/seo-tip-titles-matter-probably-more-than-you-think/)

Hタグ前部のキーワード【50%】

Hタグは、キーワードの順番が影響しやすい要素の1つである。再びになるが「最初の1/3ルール」はこのたぐいの説明をするのに使いまわされているが、やはり最初の方のキーワードは比重が大きいのである。少なくとも試してみるくらいの価値はあるだろう。

ソース: 考察による

他サイトより独創的なコンテンツ【80%】

Googleの特許とこの要素に関するSEOの研究によれば、Googleは似たようなコンテンツに低い評価をつけるようである。この特許は、一度関連性のあるコンテンツのグループと決定されたら、一体どのコンテンツが記述的でユニークでそして(いい意味で)奇抜なのかを様々な方法で検証するよう設計されている。

ソース: Patent US 8140449 B1, SEO by the Sea (http://www.seobythesea.com/2008/11/google-using-novel-content-as-a-ranking-signal/)

自サイト内でより独創的なコンテンツ【80%】

Googleの特許によると、本物のユニークさ・奇抜さと言うのはコンテンツの精巧さと同じくらい評価されるべきで、それにより「ユニークスコア」というものをつけている。これはテキストの情報ブロックの定量と定性調査で決定される。知られている限りでは、Googleがユニークスコアをつける際に取る方法はたくさんの文書を比較するということだけである。重複コンテンツはサイト内・外両方の観点から決定されるが、おそらく「ユニークスコア」でも同じことが言えそうである。

ソース: Patent US 8140449 B1

サイト全体でのユニークスコア【70%】

クマールとバーラトの特許「ユニークコンテンツの見極め」には、どうやってそれぞれの文書の「奇抜さ」をスコアリングするのかが書いてある。サイト全体での平均ユニークスコアを要素に含むところは、サイト全体のコンテンツの薄さをみるパンダ・アップデートやサイト全体の専門性を見るヒルトップ・アルゴリズムに似ているといえよう。

ソース: Patents US 8140449 B1, US 8825645 B1, Speculation

コメントの数【20%】

数えきれないほどのソースやGoogleウェブマスターツール上でのある種の警告を見ても、Googleはユーザージェネレイトコンテンツを分けて分析できるようだ。コメントの量がコンテンツの質を決定する要因になっているかもしれないというSEO理論が存在したが、それを証明する決定的な証拠もない上、「たとえ私がGoogleでも」それを採用することはないだろう。どう考えても、簡単にスパム行為ができてしまうからである。

ソース: 考察による

ポジティブな感想のコメント【5%】

Googleはコメント内の意見をみてコンテンツの質を決定しているという仮説がある。そしてGoogleは製品レビューに向けられた感情表現を分析できることを認めているし、その特許も取得している。しかし、アミット・シンハルによれば、「もしネガティブなコメントが寄せられたページの順位を下げてしまったら、公平な情報判断ができなくなってしまうだろ?」という理由で、コンテンツの質の決定には利用していないとのことだ。

ソース: Amit Singhal (http://googleblog.blogspot.com/2010/12/being-bad-to-your-customers-is-bad-for.html), Patent US 7987188 B2

マイナスに働く内部SEO要因

減点的な内部SEO要因とはそれを行うことによって、現状の順位を下げる可能性があるものである。これらの要素はアクセシビリティ・評価減・ペナルティの3つに分類できる。

アクセシビリティの問題はGoogleクローラービリティを妨げたことによる、正当な評価の妨害に起因するものである。
評価減は質の低いサイトの指標になるものや、サイトの評価の妨げになる問題のことである。
ペナルティはもっと深刻な問題で、長年築いてきた努力も一瞬で無に帰す可能性を持っている。

繰り返しになるが、内部要因はすべてあなたのサイト上の管理でコントロールすることができるものである。

サイト全体に関する要因

ドメイン全体で薄いコンテンツ【100%】

大昔にGoogleはコンテンツの質やオリジナリティを理解しようと躍起になっていたことがあった。パンダ・アルゴリズムが導入されたことにより、もはやこれはページ単位の問題ではなく、ドメイン全体の問題になったと言っても良いだろう。ということで、この問題はいかに検索エンジン上のコンテンツの平均的な質を向上させるかということであり、ブログの「タグ」ページに代表されるような、どうしようもない繰り返しページにnoindexを入れたりすることが効果的だったりする。

ソース: Google (https://support.google.com/webmasters/answer/2604719?hl=en)

ドメイン評価が低い【100%】

ドメインは時を超えてGoogleに評価される。それは例えドメイン所有者が変わって完全に違うサイトが運営されていたとしてもだ。前オーナーのせいでペナルティを引き継いでしまうことだってある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=C-EdhaMDXho)

過剰な内部リンク【80%】

かつてマット・カッツは1ページあたりのリンクの数は明確に100個以内に制限していると述べていたが、のちに「妥当な数に保つこと」と表現を変更した。これはかつてGoogleのクローラーが1ページあたり100kb以上ダウンロードしなかったことに起因している。これはもはや事実ではないが、それでも全てのリンクはPageRankを受け渡してしまうので、Googleの仕組みを考えるならあり得る話だとは考えられる。

Matt (blog) (https://www.mattcutts.com/blog/how-many-links-per-page/), Matt(video) (https://www.youtube.com/watch?t=46&v=QHG6BkmzDEM)

過剰な外部リンク【100%】

PageRankアルゴリズムの単純な構造を考えれば、過剰な外部リンクがPageRankをドメインの外に流出させてしまうということは簡単に理解できる。マイナス要因になるのはあくまでも「過剰な」場合に限る。「適度な」外部リンクはむしろプラスの要因になることをマット・カッツも同じソースで認めている。

ソース: Matt Cutts (https://www.mattcutts.com/blog/pagerank-sculpting/)

過剰なフッターリンク【80%】

まず明確にしておかなければならないが、フッター部分に詰め込まれたリンクというのは、本文(コンテンツ)部分に記述されたリンクよりも価値が下がる。また、有料リンクスパムへの対応についてGoogleが初めて説明し始めた時、有料リンクスパムの手法としては、サイトのフッター部分に何十という有料リンクを詰め込むことが主流だった。そのためフッターに外部へのリンクを付け過ぎると、なにかしらのペナルティを引き起こす可能性がある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=D0fgh5RIHdE)

孤立したページ【100%】

内部リンクをどう辿ろうが行き着くことがほぼ不可能な孤立したページは、ドアウェイページとして扱われWebスパム判定される可能性がある。そこまでの事態にはならないにせよ、そういったページは内部のPageRankの恩恵を受けられず、権威からは程遠いものになるが。

ソース: Google Webmaster Central(http://googlewebmastercentral.blogspot.com/2015/03/an-update-on-doorway-pages.html)

リンク販売【80%】

マット・カッツはツールバーPageRankが、リンク販売を行ったことにより7から3に落ちてしまった例を見せている。PageRankの受け渡しを目的としたリンク販売はGoogleのWebマスターガイドラインでペナルティ項目として扱われている。

ソース: Matt Cutts (https://www.mattcutts.com/blog/why-did-my-pagerank-go-down/)

発リンク【5%】

ある意味では、「PageRank流出」として知られているものは存在する。つまり配布できる「ポイント」は予め決まっていて、一度出て行った「ポイント」はすぐには回復しないと言う考え方だ。しかしマット・カッツは本当に関連があり信頼のできる発リンクには評価を与える別の制御があると認めている。Webサイトというは集合体であるべきで、袋小路になるべきではない。

ソース: Matt Cutts (https://www.mattcutts.com/blog/pagerank-sculpting/),Nicole V. Beard (https://northcutt.com/seo-myths-from-experts/)

コンテンツに関する要因

Body内の過剰なキーワード出現率【80%】

キーワードスタッフィングペナルティは、過去にキーワードを詰め込めば詰め込むだけ順位が上がった時代のスパムに対抗するために導入された。とある実験によればキーワード出現率が6%を超えた段階でペナルティが発動することもあった。TF-IDFは働いていたが、トピックやキーワードの種類、文脈に大きく左右されるようだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA),Remix (https://www.youtube.com/watch?v=b7W0o65tTIQ)

キーワード出現の希薄化(内容の薄いコンテンツ)【80%】

もし高いキーワード出現率やTF-IDFがポジティブに働いているときなら、キーワードの出現頻度や出現率が足りてないと、関連性が薄いと判断されてしまう。Googleが自然言語理解を深めてきたおかげで、この項目は内容の薄いコンテンツと書き変えたほうがよいかもしれない。明確なテーマなく書かれたコンテンツはいかなるキーワードにも関連付けられないのである。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

タイトルタグ内のキーワード出現率【80%】

タイトルタグ内のキーワードスタッフィングもペナルティになる可能性があるようだ。理想的なタイトルタグの長さは30文字程度で、検索結果に表示された際、良い検索広告としての機能も果たす。控えめに言っても、同じキーワードを何回も同じタグの中で繰り返し使う意味があるとは思えない。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

あまりに長いタイトルタグ【80%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

Hタグ内のキーワード出現率【80%】

H1やH2に代表されるようなHタグは、そこに記載されているキーワードに重めの比重をかけることができる。そう聞くと、このタグに出来る限りのキーワードを詰め込もうとしたり、できるだけHタグを長くしようとしたりする誘惑にかられるだろう。ただ、そんなことをしてもキーワードスタッフィングペナルティに引っかかるだけだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Rk4qgQdp2UA)

Hタグの過剰使用【80%】

原則として、もしSEOペナルティなんてものが本当に存在するのかどうかはっきりとした答えが欲しいのなら、プラスに働く内部SEO要因であげた項目を常識的な範囲を超えてためしてみるといい。一番簡単な方法はWebサイト全てをH1タグ内に設置してみることだろう。マット・カッツはH1に大量のテキストを挿入した際のヒントを動画で残してくれている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Bz0KQNPDUoc)

URL内キーワードの繰り返し【70%】

URL内で複数回キーワードを繰り返した場合のペナルティは今のところ聞いたことはないが、それをしたからといってSEO的にプラスになるということも基本的にはない。実際URLの中に複数回キーワードを入れてみたが、何の意味もなかった。

ソース: 考察による

やたら長いURL【80%】

マット・カッツによると、URLの最初の5単語程より後に記述されているキーワードに関しては、SEO的なプラスの要素は減っていくとのことだ。
直接確証されているわけではないものの、Google上でこの現象が起こっているのを目にすることはできる。とはいえ、この問題に関しては扱われ方も多様で、BingはURL内のキーワードスタッフィングを完全にペナルティとして扱うことにしたと公表している。

ソース: Matt Cutts (http://www.stephanspencer.com/matt-cutts-interview/)

ALTタグ内のキーワード出現率【80%】

通常ALTタグというものはページ上に表示されることがないものだから、ALTタグ内のキーワードスタッフィングというのは横行しがちだった。的確な表現の数単語なら全く問題ないどころかむしろ歓迎されるべきだが、それを超えるとペナルティの対象になりえる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=T4VarHQNqRo)

やたら長いALTタグ【80%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=T4VarHQNqRo)

長い内部リンクアンカー【70%】

控えめに言っても内部リンクのアンカーテキストを長くすることによるプラスの効果など全く無く、大抵の場合マイナスになる可能性のほうが高い。長過ぎる内部アンカーテキストは、下手をするとキーワードスタッフィングペナルティを引き起こす可能性がある。

ソース: 考察による

テキストに対してリンクが多い【50%】

リンクしかなく、内容の全くないサイトは低品質とみなされていると考えられる。もちろん検索結果ページのようなランキングページではなく、内容が必要なコンテンツページだった場合の話だが、明確に証明するソースはまだない。

ソース: 考察による

くどいほどの箇条書き【80%】

マット・カッツによれば、どんな書き方であれキーワードを箇条書きにしただけのコンテンツはキーワードスタッフィングとみなされる可能性があるとのことだ。例えば、事柄・単語・ことわざ・アイデア・コンセプト・キーワード・キーフレーズなどをやたらと箇条書きにするのはどう考えても普通ではない。やり過ぎるとペナルティの可能性もある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=7y-m_jiayLQ)

著作権違反【100%】

Digital Millennium Copyright Act(DMCA)や米国外のこれに似た著作権規約に違反したコンテンツを載せていると色々なペナルティに引っかかる可能性がある。Googleは自動で出所不明もしくは無許可のコンテンツ流用を発見できるよう努力しているようだが、ユーザー自身がGoogleに違反コンテンツを通報し、手動対応を促す事もできる。

ソース: Google (https://support.google.com/legal/answer/1120734)

ドアウェイページ【100%】

検索エンジン上でランディングページとなることを狙って、ドアウェイページやゲートウェイページと呼ばれるユーザーにとって無価値なページを利用していると評価が下がる。例えば、同一商品のページをアメリカ中の全都市名で作ったりすると、Googleにスパムだと判定される。

ソース: Google (https://support.google.com/webmasters/answer/2721311?hl=en)

画像内のテキスト【100%】

Googleは画像の分析能力を上げてきてはいるが、今のところリッチメディア内のコンテンツはGoogleに正しくクロールされていない。画像内にテキストを入れたからといって悪いことはなにもないのだが、そのテキストで評価されるチャンスは失われることになる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

動画内のテキスト【100%】

画像と同じく動画内のテキストもGoogleは正しくクロールできない。動画の内容を文字起こししたものを一緒に公開することで、検索されやすくすることができる。これはHTML5やFlash、SilverLightなどのリッチメディアの形式にかかわらず言えることである。

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

リッチメディア内のテキスト【100%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

薄いコンテンツ【100%】

トピックについて包括的に書かれた詳細なコンテンツというものが良いものとされてきたが、パンダ・アルゴリズムの導入によってオリジナリティの一切ないコンテンツは、Googleによって激しく罰せられるようになってしまった。

ソース: Google (https://support.google.com/webmasters/answer/2604719?hl=en), DaniWeb Study (https://www.daniweb.com/internet-marketing/search-engine-optimization/news/364574/daniweb-has-recovered-from-google-panda-sorta)

他ドメインとの重複コンテンツ【100%】

他サイトとコンテンツが重複していた場合、たとえそれが著作権を侵害しているか否か、あるいは出典の表示方法が正しくおこなわれているか否かにかかわらず、順位に著しい不利益を生じさせることがある。この順位ロジックは「コンテンツがWeb全体に対してもっとユニークで特別であれば優遇される」という理論と一致する。

ソース: Google (https://support.google.com/webmasters/answer/2721312?hl=en)

自ドメイン内での重複コンテンツ【100%】

他ドメインとのコンテンツ重複と同様、コンテンツのどんな断片であれ、ページ内もしくはサイト内で重複が発生していると評価に影響を与える可能性がある。(ブログの)タグページが大量にインデックスされてしまっていたり、「www」有り無しが統一できてなかったり、「URLのパラメータ有り無し」が統一できてなかったりすると、この問題が発生する原因となる。

ソース: Google (https://support.google.com/webmasters/answer/66359?hl=en)

ペナルティを受けているサイトへのリンク【100%】

「Bad Neighbourhood」アルゴリズムとして導入された。マット・カッツの言葉を借りるなら、「スパムサイトやそういった類のサイトへのリンクが少なければ少ないほど、Googleからの信頼性は向上する」。どうしてもそういうサイトにリンクを貼らなければならないのなら、rel=nofollowを使用すべきだとGoogleは推奨している。再びマットの言葉を借りると「nofollowを使えばそういったサイトとの関係を断ち切る事ができる」。

ソース: MC: Bad Neighbors (https://www.mattcutts.com/blog/pagerank-sculpting/), MC: Nofollow (https://www.seroundtable.com/archives/015603.html)

noindexページ【100%】

もしページにnoindexタグを入れていたら、検索エンジンはそのページをインデックスしない。順位を付けたいページにこのタグが入っていないことを今一度確認しよう。逆に、Googleからのランディングページとしてふさわしくないページには入れたほうがユーザーエクスペリエンス的にとても良い。

ソース: 論理

内部リンクのnofollow【80%】

2通りのパターンがあるが、ひとつ目はrobotsタグにnofollowをつけている場合。この場合そのページ全てのリンクがnofollow扱いになる。ふたつ目は、個々のリンクにnofollowをつける場合。どちらの場合にせよ、nofollowが示すことは、「信用できないリンク先」「これ以上はクロールするな」「PageRankを渡すな」ということだ。マットいわく「絶対に自分のサイトにむけてnofollowはするな」。

ソース: Matt Cutts (https://www.youtube.com/watch?v=bVOOB_Q0MZY)

アフィリエイトへのリンク【70%】

Googleは過去に「何も付加価値を与えないアフィリエイトサイト」に対して、正面切って対策をしたことがある。これはガイドラインにも記載されている。アフィリエイトリンクはrobots.txtでブロックしたディレクトリから301リダイレクト経由で行うというSEO病が蔓延しているようだが、そんなことをしてもGoogleはHTTPヘッダ情報を見ることはできる。何人ものアフィリエイトマーケターが、アフィリエイトリンクを貼り過ぎたことによりペナルティを受けたという科学的に信憑性の高いケーススタディを発表しているのでこの項目の信憑度を70%で設定させてもらった。

ソース: Google (https://support.google.com/webmasters/answer/76465?hl=en), Affiliate Marketer’s Study (http://www.nichepursuits.com/how-to-get-a-google-penalty-using-af?liate-links-and-how-to-recover/)

検索結果ページ【100%】

原則としてGoogleはユーザーにちゃんとコンテンツにランディングしてもらいたいと考えている。つまり、コンテンツへのリンクリストページや、たった今までいたのと同じような検索エンジンの検索結果ページ(SERP)とかではなくだ。もしもページが検索結果ページのようなものなら、ただ単リンクの多いだけのページとして分類され、良い順位がつかない傾向にある。検索結果だけでなく、ブログのタグページ、カテゴリページなども同様だ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/search-results-in-search-results/)

自動生成コンテンツ【100%】

ユーザーの検索クエリに合わせてコンテンツを自動生成している場合、「もちろんペナルティ対象になる」とGoogleとGoogleの作成したWebマスターガイドラインにより確認が取れている。幾つかの手法はガイドラインで明確な例として詳細に記載されている。自動生成のメタタグなどのように例外として認められている例もある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=JGCA2I8hfWc),Webmaster Guidelines (https://support.google.com/webmasters/answer/2721306)

フィッシング【100%】

もしサイトでフィッシング(例えば情報を盗もうとして、どこかのサイトのログインページをそっくりにコピーしているなど)をしているのでは、とGoogleに判断されかねないような問題があるなら、覚悟しておいたほうがいい。多くの場合、Googleは「違法な行動」や「ユーザーに危害を加える行動」とひとくくりにして説明しているが、このインタビューでマット・カッツはフィッシングフィルターについて詳しく解説している。

ソース: Matt Cutts (https://www.reubenyau.com/google-trustrank-myth-busted/)

期限切れのコンテンツ【80%】

様々な方法を使って、コンテンツの期限(※訳注情報としての期限)を確かめる特許をGoogleは所有している。そのうちの1つの方法は単純にコンテンツの作成された古さを見るというものだ。この要因に関して不確かなことは、はたしてこれが適応されるのはすべてのクエリでのことか、あるいはQDFのようにGoogleが明らかにコンテンツ期限を定めた方がいいと判断したクエリに限られるのかわからないという点だ。

ソース: Patent US 20080097977 A1

露骨なアダルトコンテンツ【70%】

Googleは18禁コンテンツをインデックスもするし検索結果として返しもするが、デフォルトで「オン」になっているセーフサーチフィルタでは出てこない。だから今一度、ちゃんと確認していないユーザージェネレイテッドのコンテンツや過去のコンテンツがうっかりセーフサーチにひっかかる一線を超えてしまっていないかの確認くらいはしておいたほうが良いだろう。

ソース: Google Safe Search (https://support.google.com/websearch/answer/510?hl=en)

メタ・ディスクリプションのキーワードスタッフィング【50%】

Googleはすでにメタ・ディスクリプションをランキング要因から取り下げ、ただの広告として利用しているにすぎないと言ってはいるものの、不正な利用をした場合にはスパム判定を送る要因になる可能性がある。

ソース: 考察による

メタ・キーワードのキーワードスタッフィング【50%】

2009年以降、Googleはこのタグを一切見ないと言っているが、未だにそれを知らないか、あるいは効果を信じている人たちはココにキーワードを詰め込もうとする。最近起きた事例によれば、未だにWebスパムシグナルをGoogleに送る要因にはなり得るとのことだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=jK7IPbnmvVU)

スパムなユーザージェネレイトコンテンツ【80%】

Googleはユーザージェネレイトコンテンツ部分だけにフォーカスした問題点をあぶり出し、そこに特化したペナルティを作り出している。これはSearchConsole上に警告として現れる数少ない事例の1つである。そのペナルティは通常、特定のページにのみ適応されるとのことだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=gjmXYBQZQ8Q)

分離していない外国語のコンテンツ【70%】

当たり前だが、ターゲットオーディエンスの使っている言語ではない言語でコンテンツを作成したら、ほとんどマイナス方面に内部要因ははたらいてしまう。適切に分離されていない外国語コンテンツはクローラーとユーザーどちらにとってもマイナスになるということをマット・カッツも認めている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=GyWx31GeQWY)

自動翻訳コンテンツ【80%】

Babelfish(※訳注日本で言うエキサイト翻訳)やGoogle翻訳を利用して、お手軽に「インターナショナル化」を図ろうとするのは、マット・カッツの言うところのWebマスターガイドラインに完全に違反する行為である。Googleがそういうことを言ったときは「評価が下がるのではなく、ペナルティ扱いにするからね。それもかなり重めの」という意味なので注意しておくように。Webマスタービデオでマットは自動翻訳を、自動生成コンテンツに分類すると言っていた。

ソース: Matt Cutts (https://www.youtube.com/watch?v=GyWx31GeQWY)

コードに関する要因

JavaScriptによる隠しコンテンツ【50%】

GoogleはJavaScriptに入れたコンテンツを正しくクロールできないから、あまりそこにコンテンツを入れることを推奨しないとしているが、実際クロールができないというわけではない。ただ、かつてNoScriptタグがクローキングに使われていた時代があったため、下手をするとクローキングペナルティにひっかかる可能性もあるので注意が必要だ。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

CSSによる隠しコンテンツ【80%】

最もよく語られる内部要素ペナルティの一つが、ユーザーに見えないように故意に隠したテキストやリンクである。特に、Google上でのキーワード順位アップを狙ってやっていた場合にはかなり重めのペナルティが与えられる。ただ、タブであるとかツールチップであるとか、明確に理由がある場合はこの限りではない。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

背景と同じ文字色【100%】

よくあるクローキングペナルティの例としてあげられるのが、特定のコンテンツを背景と同色にしてユーザーから見えにくくするというものである。Googleはページレイアウトアルゴリズムを用いて、ユーザーにはコンテンツがどのように見えているのかを分析することで、この問題に対処している。実験の結果、ほんの一握りのケースだが、未だにこれが原因でペナルティが来ることはある。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

1ピクセルの画像リンク【100%】

昔はやった隠しリンクの手法だが、もちろんこの「小さい画像リンク」はGoogleによって隠しリンクとして認定されている。大抵の場合、縦横1pxの画像を利用するか、とんでもなく小さいフォントの文字リンクを使用する。こういう姑息な手段はかくも魅惑的に思えるが、確実にGoogleにバレるのでオススメはしない。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

空のリンクアンカー【100%】

隠しテキストとはちょっと違うかもしれないが、空のアンカーテキストを利用した隠しリンクもクローキングペナルティの対象となる。これも危険かつ、かつて一世を風靡したスパム手法なので、うっかりそうなっているリンクがないか今一度サイトをチェックしよう。

ソース: Google (https://support.google.com/webmasters/answer/66355?hl=en)

太文字や斜体文字などを多用する【70%】

太文字で表示したテキストが、そうでない残りのテキストより評価される可能性が高いからと言って、サイト全体の文字を太文字表記にしたところで、サイトの評価上がるなんてことはない。このような行為は、Googleの定める「スパム行為」とみなされるだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=Bz0KQNPDUoc)

内部リンクエラー【100%】

壊れた内部リンクを放置しておくと、クローラービリティ的にもユーザーエクスペリエンス的にも全く良いことがないし、サイトの質が低いと自分で公言しているようなものだ。出来る限り修正することをおすすめする。

ソース: Patent US 20080097977 A1, Google via SEL(http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

FrameとIframe【100%】

昔、検索エンジンはフレーム内のコンテンツをクロールすることが全くと言っていいほどできなかった。時が経ち、この問題はほぼほぼ解決できるようにはなってきたものの、未だにクローラーにとってフレームというのは厄介な代物のようだ。Googleはフレーム内のコンテンツもページに含めようとはしているようだが、その精度は100%と言うには程遠い。

ソース: Google (https://support.google.com/webmasters/answer/34445?hl=en)

動的コンテンツ【70%】

動的コンテンツはクローラーにとって理解したり正しく順位づけしたりするのが難しい代物だ。特にGoogleがアクセスしてくる可能性があるページでは、noindexを使ったりあまり動的コンテンツを使用したりしないほうが、結果としてユーザーエクスペリエンス的にも順位評価的にも良くなる可能性が高いというのが通説だ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=bAIsnr0dIgo)

過剰な広告【100%】

ページ、特にファーストビュー部分に過剰な広告があると、ユーザーエクスペリエンスを著しく損ね、Googleによる対処の対象になる可能性がある。Googleは実際にユーザーが見るページのスクリーンショットを基準に算出しており、これはページレイアウト・アルゴリズムの一部や、トップヘヴィー・アルゴリズムに組み込まれていたりする。

ソース: Google (http://insidesearch.blogspot.com/2012/01/page-layout-algorithm-improvement.html)

ポップアップの使用【70%】

2010年、マット・カッツはこれに対してNOと答えているが ,Googleの ジョン・ミュラーは2014年にYESと答えている。ページレイアウト・アルゴリズムの仕組みと効果を考えた際に、筆者の私見としては、タイブレーク効果として考えると「YES」というものだ。

ソース: Google (http://insidesearch.blogspot.com/2012/01/page-layout-algorithm-improvement.html)

robots.txtのdisallow【100%】

ルート・ディレクトリにおいているrobots.txtに対象クローラーを「*」か「googlebot」にした状態でdisallowにしたら、クロールされなくなる。この命令はすでにGoogleが持っているインデックスを削除する命令ではないが、コンテンツ更新等のアップデートがなされなくなり、色々なプラス要因が反映されなくなってしまう。

ソース: Google (https://support.google.com/webmasters/answer/6062608?hl=en)

メタまたはJavaScriptリダイレクト【100%】

古いペナルティの一種で、もうそんなに一般的ではなくなってきたが、Googleはmeta-refreshやJavaScriptの時間差リダイレクトを使わないように推奨している。ユーザーを混乱させ、離脱率を引き上げる原因になるし、クローキングとみなされる可能性があるためだ。代わりにサーバレベルでの301や302リダイレクトを使うようにしよう。

ソース: Google (https://support.google.com/webmasters/answer/2721217?hl=en)

JavaScript内のテキスト【100%】

GoogleはJavaScriptのクローリングの機能改善に努めているようだが、JavaScriptによって吐き出されるコンテンツをクロールすることに関する問題は抱えているようだし、それ以上にGoogleにはそのコンテンツが「いつ」「誰に対して」吐き出されたものなのかを理解することはできない。もちろんJavaScriptで吐き出されたテキストがペナルティの原因になるといったことはないが、不必要なリスクということに変わりはないので、マイナス要因という枠に入れさせてもらった。

ソース: Matt Cutts (https://www.youtube.com/watch?v=8yTn_HLDaJs)

正しくないHTML/CSS【70%】

マット・カッツはこれをランキング要因にしていないと言っていた。しかし筆者が定期的に行っている実験の結果を見る限り、使っているようにしか見えないのだ。もちろんコードを完璧に書く必要はないだろうし、どちらかというと間接的な影響が大きいのだろう。ただコードが関係する要因は他にもあるので、間違ったコードが問題を引き起こすことは間違いないだろう。例えばタグ使用、ページレイアウト、クローキングなどの問題を引き起こす可能性は十分に備えているといっても過言ではない。

ソース: Matt Cutts

感染したサイト【70%】

多くのWebサイトオーナーは、最も不正アクセスの多かったWebサーバが別に何の書き換え被害にあっていないということに驚きを感じるだろう。しかし、そういったクラッカーというのは、セキュリティホールの修正が行われるまで、バレないように侵入し続け、できるだけ多くの情報を盗み見ようとするものである。そして最終的には、あなたになり変わってマルウェアの配布などを行う悪意ある行動として姿を表わすのである。そしてこのことをGoogleは非常に重く考えている。

ソース: Webmaster Guidelines (https://support.google.com/webmasters/answer/163633?hl=en)

ページ上のコードエラー【50%】

PHPやJavaその他のサーバ側の言語に起因するエラーが発生していると、Googleにユーザーエクスペリエンスが低く、品質の低いサイトだと判断されてしまいかねない。少なくとも、そういったエラーメッセージがページ上にテキストとして吐き出されていると、Googleのテキスト分析に干渉してしまう。

ソース: 考察による

ソフトエラーページ【70%】

Googleはソフト404やその他のソフトエラーページを使用しないように繰り返し推奨している。それらは本質的にはエラーページなのだが、ステータスコードは依然として200を返している。理論的に言って、そういったページをGoogleが正しく処理するのは難しいし、ユーザーの混乱も招く。Googleは(少なくとも)そういったページを低い品質とみなしているし、その数が多ければサイト全体のコンテンツ品質に影響もしかねない。

ソース: Google (http://googlewebmastercentral.blogspot.com/2008/08/farewell-to-soft-404s.html)

サイトマップ優先度【50%】

多くの人がXMLサイトマップで個々のページに指定した優先度属性がクロールとランキングに影響があるという仮説を唱えている。SearchConsoleからGoogleに要求することのできる他のシグナル同様、要求したからといって特定のページの順位を引き上げることができるわけではないし、どちらかと言えば重要度の低いコンテンツの優先度を下げるために使うべきだ。

ソース: Sitemaps.org (http://www.sitemaps.org/protocol.html)

robots.txtが無い【5%】

2015年現在、SearchConsoleはrobots.txtがない場合は、作成することをおすすめしている。これによって多くの人がrobots.txtがないことマイナス評価になるという説を信じるようになった。Googleのジョン・ミュラーが、GoogleBotに特に制限を掛ける必要がないなら、robots.txtは消してしまって構わないとアドバイスしていたのを考えるとおかしな話だ。誤解により生じた迷信に過ぎない。

ソース: John Mueller via SER (https://www.seroundtable.com/google-robotstxt-advice-12759.html)

サーバーに関する要因

リダイレクトされている内部リンク【100%】

ページランクはリダイレクトを挟むと少し効力を落とすように設計されている。そのため「www」有り無しや、トレイリングスラッシュの有り無しで、内部リンクをリダイレクトしてしまっているのなら、とてももったいないことになっている。

ソース: Patent US 6285999 B1, Matt Cutts via SER(https://www.seroundtable.com/archives/021832.html)

読み込みが遅い【100%】

読み込み速度が遅いサイトは、速いサイトより評価が低くなる。サーバ側、端末側両方の要因を検査できるツールは世の中に沢山あるから、ぜひとも利用すべきだ。また、読み込み速度の問題は、ユーザーの地理や端末、接続速度などの環境に依存するものだから、ターゲットユーザーの使用環境を念頭に入れてサイト構築すべきである。

ソース: Google (http://googlewebmastercentral.blogspot.ca/2010/04/using-site-speed-in-web-search-ranking.html)

環境の良くないIPアドレス【70%】

昔から続くWebホスティングによるSEO手法のデマに関してマット・カッツがすでにそんなことはないと否定はしているものの、未だにIPアドレスが何かしらのプラス要因を生むと信じて熱心に打ち込む輩がいる。そんな方々に言いたいのは、めったには無いケースだが、Googleはスパムが蔓延していると思しきプライベートネットワークであれ、パブリックであれ、対象範囲のIPアドレス全体にペナルティを課すことがあるということだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=4peSUa2FKvk)

あまりに長い応答時間【100%】

Googleはアクセスできないサイトはインデックス(再インデックスを含む)できない。またこのロジックはサイトの不信頼性と低いユーザーエクスペリエンスという不名誉も決定づけてしまう。一時的なサイトダウンは順位に影響をあたえるようなものではないが、適切な応答時間でサイトを表示するのはとても大切だ。サイトダウンが一日二日なら問題ないが、それ以上になると問題を引き起こすだろう。

ソース: Matt Cutts (https://www.youtube.com/watch?v=qXrwyTGOf1E)

プライベートWhois【50%】

Googleは常に全てのレジスタラのwhois情報にアクセスできるわけではないという指摘はもっともだが、2006年のPubConでマット・カッツは、Googleはwhois情報を見に行っており、他の幾つかのマイナス要因とあいまったときペナルティを引き起こす可能性があると発言していた。

ソース: Matt Cutts (https://www.mattcutts.com/blog/2006-pubcon-in-vegas-thursday-site-reviews/)

嘘のWhois【20%】

プライベートWhoisと同様、Googleは嘘のWhoisを使ったトリックに気づいているし、またそれが問題であるとも認識している。ICANNの規約違反であるし、ドメインハイジャッカーに抵抗するまもなくドメインを乗っ取られてしまう可能性があるという以前に、ドメイン登録に嘘の情報を使うな。

ソース: Matt Cutts (https://www.mattcutts.com/blog/false-whois-data/)

レジスタ単位でのペナルティ【20%】

もし「プライベートWhois」と「嘘のWhois」の話に賛同してくれたのなら、マット・カッツがそれらをスパムの判定に利用しようと考えているということにも納得できるだろう。そういったことを行っているドメインオーナーのサイトが一斉摘発、手動対応されるかもしれないというのは想像に難くない。が、あくまでもこれは考察でそういった証拠は何もないが。

ソース: 考察による

グローバル順位におけるccTLD【70%】

「.jp」や「.uk」に代表されるようなccTLDは、国を特定するためのドメイン拡張子である。グローバルドメインであるgTLDの逆の存在だ。ccTLDはインターナショナルSEOにおいて便利ではあるが(※訳注どこの国のサイトかひと目でわかるため)、同じ理由でその国の外のGoogleでの順位を狙った際にはいささか不利である。ただし、幾つかのccTLDにおいては一般的にもっと広い枠で使われているためGoogleに例外として認められてり、例えば「.co」のようなドメインはgccTLDとしてgTLDと同等の扱いをされる。

ソース: Google (https://support.google.com/webmasters/answer/1347922?hl=en)

パークドメイン【80%】

パークドメインとは、まだ実際にサイトが載せられていない状態のドメインのことで、たいていの場合ドメインレジスタラ側で設定している自動生成の広告ページが表示されている。現在では他の多くのランキング基準の一つとして組み込まれているが、あまりうまくは働いていないようだ。Googleは大量のパークドメインをインデックスしていたこともあった。ただ、彼らの姿勢としてはやはりパークドメインをランキングに表示することはしたくないらしい。

ソース: Google (https://support.google.com/webmasters/answer/66376?hl=en)

サブドメインの使用【50%】

多くの場合サブドメインは、サブフォルダと違い、Googleに完全に別のサイトであると判断される。色々な他の要因との兼ね合いで、サブドメインの使用が不利益を生み出すことはありえる。例えば、1つのトピックについて書いたサイトをたくさんのサブドメインで分割してしまったら、他の「ドメイン全体」とつく要因から受けることのできる利益を全てムダにすることになる。

ソース: Matt McGee and Paul Edmondson (http://searchengineland.com/google-panda-two-years-later-5-questions-with-hubpages-ceo-paul-edmondson-149767)

サブドメインの数【50%】

サイト上のサブドメインの数は、そのサブドメインが別々のオーナーによって運営されている別サイトかどうなのかを判断する、最も顕著な要因になりうる。

ソース: 考察による

ページのHTTPステータスコード 4XX/5XX【100%】

もしもWebサーバが200(OK)か301/302(リダイレクト)以外のステータスコードを頻繁に返しているようなら、それは適切なコンテンツを表示していないということを暗に示しているようなものである。ブラウザで見ることができても(※訳注キャッシュ等が残っていて)、実際にコンテンツはなくなってしまっている場合も有り得るので注意が必要だ。もし、本当にコンテンツがなくなっていて404を返していることが正しいのなら、それが間違いでないことをGoogleに正しく伝えるべきだ。

ソース: 考察による

ドメイン全体でのエラーページの割合【50%】

ステータスコード4XXや5XXを返すページに着地する可能性が高いということは、品質の低いサイトだと評価されうる。そういったコードを返しているためにインデックスされない可能性があるので、リンク切れを起こしている発リンクがないかをチェックするのと同様、注意しておくに越したことはないであろう。

ソース: 考察による

HTTP期限切れヘッダー【50%】

Webサーバでヘッダーの「期限」を設定しておけば、ブラウザのキャッシュをコントロールでき、パフォーマンスを向上させることができる。しかしながら、加減にも左右されるが、インデックスに問題を引き起こす可能性もある。つまり検索エンジンにコンテンツを長いこと更新しないと宣言してしまっている可能性があるということだ。

ソース: Moz Discussion (https://moz.com/ugc/expires-headers-for-seo-why-you-should-think-twice-before-using-them)

サイトマップchangefreq【50%】

XMLサイトマップのchangefreqで、どれだけ頻繁にコンテンツを更新しているのかを示すことができる。Googleは指示された以上に早く再クロールすることはないとする説もある。ただ、changefreqの指示通りGoogleがクロールしているのか否かの確証はなく、もしそうだとしても、SearchConsoleで設定できるクロール速度の設定が優先されているように感じる。

ソース: Sitemaps.org (http://www.sitemaps.org/protocol.html)

プラスに働く外部SEO要因

外部SEO要因では、直接サイトをコントロールする以外のGoogleランキングに影響する要因について述べる。たいていの場合これは外部サイトからの被リンクということを意味する。
プラスに働く外部SEO要因は主に、①理解を深めること、②自然な人気獲得に関連し、信頼性と拡散性の高いソースから評判を獲得することに主眼をおいている。

権威性に関する要因

ページに対する権威あるサイトからの被リンク【100%】

この考えの中では、リンクは通貨と同じような価値を持ち、その価値は0ドルから1,000,000ドル位と試算することができる。これはPageRankアルゴリズムの基本となる考えである。

ソース: Larry Page (http://infolab.stanford.edu/~backrub/google.html)

ページに対するより多くの被リンク【100%】

被リンク1つ1つの価値が全て同じだと仮定すると、もらえるリンクの数が多ければ多いほど価値は高くなる。もちろんこの要因だけが決定要因になるわけではない。つまりどんなに多くの量も質の高さにはかなわないし、通常うける被リンクのほとんどは文字通り「価値がない」ものだということだ。ただし、PageRankアルゴリズムが存在し続けるかぎり、たくさんの被リンクが無いと激しい順位競争についていくことはできないだろう。

ソース: Larry Page (http://infolab.stanford.edu/~backrub/google.html)

ドメインに対する権威あるサイトからの被リンク【100%】

外部サイトからの被リンクで得られるPageRankは、ドメイン中に内部リンクを通じて分散される。総じてドメイン名は権威獲得するのに役に立つ。つまり、権威あるサイトにコンテンツを載せた方が、そうでないドメインに載せた場合より遥に順位が良くなる。

ソース: Larry Page (http://infolab.stanford.edu/~backrub/google.html)

ドメインに対するより多くの被リンク【100%】

同じことになるが、リンクの価値が同じならより多くの被リンクを受けたドメインの方が価値は高くなる。ラリー・ペイジの書いたPageRankのコンセプトを記した研究書には、「ホストネームベースのクラスタリング」がPageRankの構成要素になると書いてある。

ソース: Larry Page (http://infolab.stanford.edu/~backrub/google.html)

ソーシャルシグナル【50%】

Googleのいうソーシャルシグナルとは、現在実験中のソーシャルメディア上でのシェアや評判をサイトの権威決定に影響させるべきか否かということだ。Google+が始まり、Twitterとのfirehose契約を解除した後、マット・カッツは「今までの研究はGoogle+のデータを使って行った実験よりパッとしないものだ」と言っていた。最近の調査から言えることは、直接的か間接的かは不明だが、ポジティブなソーシャル評判は順位と相関関係があるということだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=ofhwPC-5Ub4), MozStudy (https://moz.com/blog/does-google-use-facebook-shares-to-in?uence-search-rankings)

ブランドサイテーション【5%】

ローカルSEOやGoogleマップSEOの大きな要因として、企業名や住所、電話番号などがあればリンクを貼らなくても上位表示するというものがある。MozのCEOのランド・フィッシュキンはこれが通常のSEOにも考慮されているのではないかとするケーススタディを発表していた。が、まぁあくまで迷信として扱ったほうが良さそうだ。

ソース: Moz Study (https://moz.com/blog/prediction-anchor-text-is-dying-and-will-be-replaced-by-cocitation-whiteboard-friday)

Cクラス分散したIP【20%】

原則として、Googleはリンク元のページやドメインの権威や、質、関連性をもとにリンクをスコアリングしている。それはIPアドレスとは関係ない。たったひとつの例外、ヒルトップ・アルゴリズムを除いては。
もっと具体的にいうと、クリシャナ・バーラットの研究書のセクション2.1、「ホスト所属の探知」という部分である。/24のIP範囲、もしくはIPv4における上から3つめまでの8ビット(A.B.C.DのうちCまで)が同一のサイトは、同一オーナーによって管理されているとみなし、ヒルトップによる効力を無効とすると記載されている。

ソース: Krishna Bharat (ftp://ftp.cs.toronto.edu/pub/reports/csri/405/hilltop.html)

DMOZのリスティング【80%】

インターネット上の全てのウェブサイトがリンクをもらえる、そんな魔法のような場所が1つある。それがDirectory Mozilla、通称DMOZである。かつてはGoogleディレクトリにデータ供給をおこなっていたこともあるオープンディレクトリプロジェクトである。悪いうわさが絶えずプロジェクトそのものは大打撃を受けているが、手動編集だし、それにひとたびDMOZに掲載されれば目に見えるくらいの効果はあるはずだ。例え2015年現在でも。

ソース: Matt Cutts (https://www.youtube.com/watch?v=KCY5pbAuYpk)

.EDUドメインからのリンク【5%】

SEO初心者をカモにしたペテンの1つに、「.EDU」サイトからのリンクを売りつけるというものがある。通常のリンクよりも価値が高いというのが主張らしい。マット・カッツは「Googleは.eduも.govも他のドメインと区別して評価しない」とこの主張を直接ぶった切っている。確かに、そういったドメインのサイトは通常のサイトより、多くの自然なリンクを集めているのだが、「.eduリンク販売」のようなサービスで得られるリンクはそういったものとは程遠いし、大抵の場合はスパムになりやすい、権威性の薄まっているフォーラムやブログからのリンクが付くだけだ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/another-two-videos/)

.GOVドメインからのリンク【5%】

.eduと全く同様、.govが通常のgTLDの枠を超えて評価されるというのはまったくもって真実では無い。また、そういったドメインからのリンクをいくらか含んでいた方がより「自然なリンクバランス」に見えるとする説もあるが、数々の声明、ケーススタディもしくは権威あるブランドサイトがそういったリンクを別に一切含んでいないことを考慮すると、まったくもって信憑性にかける。

ソース: Matt Cutts (https://www.mattcutts.com/blog/another-two-videos/)

ポジティブなリンク獲得速度【70%】

もしもあなたのサイトとそのコンテンツが、リンクを失うスピードよりも得るスピードの方が速かったとしたら、すでに大ブランドサイトとされているものよりいくらか注目されるべきだとは考えられないだろうか。そうではないとすると、何かしらのフェアじゃない外部要因が働いているとしか思えない。
Googleの特許によれば、少なくとも彼らはこれを見てはいるようで、こう記述されている。「文書(もしくはページ)へのリンクの増加・減少の累積割合を分析することにより、検索エンジンははたしてその文章がどれほど新鮮なものなのかを評価するシグナルを付与することができるかもしれない」と。

ソース: US 8521749 B2

自然な割合のディープリンク【50%】

PageRankアルゴリズムの単純な構造として、ホームページを経由するなIPアドレスどして間接的にリンクされるより、ページに直接リンクされたほうが権威性はあがる。極端に不自然なSEO対策をしていないかぎり、ホームページに対するリンク数とディープリンク数の割合は自然な形になるはずだ。

ソース: Larry Page (http://infolab.stanford.edu/~backrub/google.html)

Google+プロファイル【70%】

Google+の利用がどのように順位要因に組み込まれているか定かではないものの、順位に色々な利益を与えることはできるようだ。Google+が伝統的な順位決定(※訳注いわゆるユニバーサル検索に影響されない普通の順位のことだと思われる)にプラスに働くという考えもあるようだが、筆者の意見として言えば、これの効果が実際に現れるのは伝統的ではない順位部分のみに限られていると思われる。これの例を見たければ、ぜひ2013年のMozConでDr.ピート・メイヤーズが発表したプレゼン、「10個の青いリンクの先に」を参照してくれ。

ソース: Dr. Pete’s Study (http://www.slideshare.net/crumplezone/beyond-10-blue-links-the-future-of-ranking)

Twitterのフォロワー【20%】

ブランドのtwitterのフォロワー数が直接順位要因になっているのではないかという説が強く信じられている。しかし、Googleの主張はそれとは全く反対のものである。確かにTwitterのオーディエンスというのはブランドのファンを育成していくうえで、この上ないほど貴重な資源であるのだが、そういったものは長期的な口コミマーケティング、コンテンツからのリンクなどとして表面化してくるが、どれもGoogleが今のところ順位決定要因にしている証拠とはなり得なさそうだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=udqtSM-6QbQ)

Twitterのシェア【50%】

Googleによれば、ソーシャルメディアでのシェアは基本的にバックリンクとしてしか扱われず、今のところTwitterでのコンテンツシェアにそれ以上の付加価値が付け加えられるという事実ない。2010年、Googleはダニー・サリバンに「Twitter上での素性」を気にはしていると答え、2014年にマット・カッツは、「ここ以外で手に入れることのできない最高の情報」と表現していた。

ソース: Matt Cutts (https://www.youtube.com/watch?v=udqtSM-6QbQ), Danny Sullivan (http://searchengineland.com/what-social-signals-do-google-bing-really-count-55389)

FacebookのLike【20%】

Twitterのフォロワーの項目と同様

ソース: Matt Cutts (https://www.youtube.com/watch?v=udqtSM-6QbQ)

Facebookのシェア【50%】

Twitterのシェアの項目と同様

ソース: Matt Cutts (https://www.youtube.com/watch?v=udqtSM-6QbQ),

Danny Sullivan (http://searchengineland.com/what-social-signals-do-google-bing-really-count-55389)

Google+のサークル【20%】

ほんの少しの間、GoogleのSPYW(Search Plus Your World)機能によって、パーソナライズされた検索結果が通常の検索結果に上書かれて表示されたことがあった。これにより、Google+上で「+1」したサークルに関連するドキュメンとやページが優先されて表示された。今現在では、この実験は失敗に終わったと見られている。将来的にもしシグナル化された時のために、これに力を入れても悪いことはないが、少なくとも今現在サークルが要因になっているとする証拠は何もない。

ソース: Google (http://googleblog.blogspot.com/2012/01/search-plus-your-world.html)

Google+の「+1」【10%】

Google+がローンチされた後、GoogleはいたるところにGoogle+の「+1」ボタンを設置する実験を推しすすめてきた。サイラス・シェパードはMoz上で、「+1をたくさん集められるくらいに人気のサイトは上位表示されやすい」とする、相関関係調査を発表した。その直後、マット・カッツはどれも事実ではなく、+1は直接順位に影響をあたえるものではないと調査を否定している。限りなく「迷信」にちかい「疑わしい」に設定させてもらう。

ソース: Moz correlation study (https://moz.com/blog/google-plus-correlations), Matt Cutts via SER (https://www.seroundtable.com/google-1ranking-17252.html)

より古いドメインからのリンク【50%】

Microsoft(※訳注Bing)が2008年に提出した特許情報にはより古いドキュメントからのバックリンクにはより価値を与えると記載されている。内訳は、10年以上が100%、6-10年が75%、3-6年が50%、1-3年が25%、1年未満なら10%という具合だ。Googleも同様の要素を持っているのではとする説があるが、確証は無い。

ソース: SEO by the Sea (http://www.seobythesea.com/2008/04/do-domain-ages-affect-search-rankings/)

高いMozRank/MozTrustスコア【5%】

ツールバーPageRankで目にすることのできる数値は、Google検索が実際に利用しているPageRankと一致するわけではない。近頃ではこの数値の正確性はかなりひどいものになってきたこともあり、多くの人がMozRankの方を見るようになった。そのような背景はあるが、Googleはいつだってリンクの価値を絶対に自分たちで計算しているし、いくらMozRankと実際の順位に相関関係があろうとも、そのデータをGoogle順位決定に利用するということはありえない。これはMajeやAhrefs等、他のいかなる第三者機関のデータでも同様だ。

ソース: 考察による

Googleへのサイト登録【5%】

Googleは長いこと、クロールを促すためにサイトを登録するツールを提供している。長いこと信じられている迷信の1つが、これがランキングに何かしらの利益をもたらすのではないかということだ。しかし実際には、例えサイトがインデックスされていないような状態であろうとも、このツールの存在はただの「プラシーボボタン」程度のものでしかない。

ソース: Google (https://www.google.com/webmasters/tools/submit-url)

Google+ローカルで承認された住所【20%】

Googleマップのローカルリスティングに使われているGoogle+ローカルページが、通常の順位要因に使われているのではないかという説がよく言われる。それらがGoogleマップ上のローカルSEOや、通常の検索結果ページに出てくるシックスパック部分の順位にはかなりの影響力を発揮するものの、通常のランキングに利用されているという証拠は何もない。

ソース: 考察による

関連性に関する要因

キーワードアンカーテキスト【100%】

外部リンクのアンカーテキストは、飛び先のページを検索語との結びつきを助けるものになる。そのページにその検索語が必ずしも含まれていなくても順位はつく(Google Bombing参照のこと)。

ソース: Patent US 8738643 B1

関連のあるサイトからのリンク【100%】

あなたのものと似たような項目を記述しているサイトからのリンクというのが望ましい。よく勘違いされてるし、そういう危ないリンクビルディング計画もあるが、全てのリンクがそのテーマに特化したサイトから貼られている必要は全く無い。そういうのはとても不自然だからだ。

ソース: Krishna Bharat (http://web.archive.org/web/20070115000853/http:/www.cs.toronto.edu/~georgem/hilltop/)

部分的に関連のあるアンカーテキスト【80%】

被リンクが自然であるということは、当然だが、全てのリンクが同じように貼られていないということである。アンカーテキストはキーワードフレーズの一部のみを含んでいたり、キーワードと他の言葉が入っていたりするべきなのだ。Googleの特許では「partially-related」と示されており、SEO業界用語でいえば「アンカーの部分一致」と表現される。

ソース: Patent US 8738643 B1

部分的に関連のあるALTテキスト【80%】

部分一致のアンカーテキスト同様、画像リンクについているALTテキストも様々な種類があってしかるべきである。これはGoogleによって直接明記されているわけではないが、簡単な実験によって証明はされている。

ソース: Patent US 8738643 B1

タイトル属性のキーワード【5%】

リンクに付いているタイトル属性は、アンカーテキスト同様に扱われるのではないかとする説があった。しかし、2005年のPubConにおいてGoogleは、「この属性を利用している人はもうほとんどいない」という言葉とともに、この説をきっぱりと否定している。また多くの研究でもこの属性がまったくもって要因として利用されていないことがわかっている。

ソース: Ann Smarty via SEJ (http://www.searchenginejournal.com/how-to-use-link-title-attribute-correctly/)

ALTテキストのキーワード【100%】

画像リンクのALTに使われているテキストはアンカーテキストと同じ効果を持つ。また、端的で信頼できるALTテキストはアクセシビリティを向上させ、Google画像検索の上位表示にも役に立つ。

ソース: Patent US 8738643 B1, Matt Cutts (https://www.youtube.com/watch?v=3NbuDpB_BTc)

リンクまわりの文脈【100%】

リンク周りのテキストというものが文脈理解に利用されているとする説が、かなり前から唱えられている。Googleの特許とシンプルな実験がこの説の正当性を示している。つまり、文中に記載されているリンクのほうが、単体で文脈から切り離されたリンクよりも高い価値を提供しているのである。

ソース: Patent US 8577893, SEO By The Sea (http://www.seobythesea.com/2013/07/google-anchor-text-snippets/)

同一検索結果からのリンク【80%】

Googleの特許には「順位結果の相互関係を考慮した後に再順位付けを行った順位結果(プログラマー的な反復ジョークを含む)」というものがある。これには、とあるクエリですでに上位表示されているページからのリンクはそうでないページからのリンクよりも、そのクエリに対する上位表示効果が高くなるということが書かれている。

ソース: Patent US 6526440 B1

クエリ/ページでのクリック率【70%】

検索結果ページからのクリック率が順位決定要因に使用されているのではないかというのは、かなり有力な説として存在する。Bingはそれを順位決定要因として利用している。マットは2009年にかなり含みをもたせた言い方でこの関係性について言及している。ランド・フィッシュキンはクリック率が順位に影響すると考えうるに足る実験を、twitterを利用して行った。

ソース: Moz Study (https://moz.com/rand/queries-clicks-in?uence-googles-results/), Patent US 9031929 B1

ドメインのクリック率【50%】

ナンヴィート・パンダ(パンダ・アップデートの作者と同じ)の特許に、色々な検索結果のクリック率を通じてのサイトの品質スコアリングを行う方法という記述がある。この特許の名前は文字通り「サイト品質スコア」というものだ。同特許は、クリックによって導き出されるブランドクエリについても言及している。とは言え、これらもクリック率が順位決定要因になっているかもしれないという証拠の足しでしかなく、サイト単位でのクリック率もその中に含まれるかもしれないという可能性の域を出ない。

ソース: Patent US 9031929 B1

ターゲットにしている国のccTLDからのリンク【70%】

Googleはサイトと特定の国との関連性を確立するために、ccTLD(Country Code Top Level Domain)を利用している。特定の国のccTLDサイトからのバックリンクは、その国での順位に影響を与えるというのが一般的に考えられていることだ。

ソース: Google (https://support.google.com/webmasters/answer/1347922?hl=en)

ターゲット地域IPからのリンク【70%】

ターゲットオーディエンスに近いサーバを使用することは、かなり広い範囲、世界レベルで見たときに、そのオーディエンスに対するランキングにプラスの影響を与えるとGoogleは言っている。他にもたくさんの要因が地域関連性を確立しており、これはGoogle.comとGoogle.co.ukでの検索結果を比べてみても目にすることができる。以上のことより、Googleがあなたのサイトへのリンクを分析するツールと、あなたのサイト自身を分析するツールは同じものを利用していると仮定できる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=keIzr3eWK8I)

品質に関する要因

被リンクの安定性【100%】

被リンクは時間が経つほど価値が上がる。この理由は考察になるが、スパムリンクや有料リンクは修正されたり最終的に削除されることがほとんどだからだろう。その結果、長く続くバックリンクは価値を上げる。これは特許でも確定されている。

ソース: Patent US 8549014 B2

低い離脱率【50%】

Googleは検索ユーザの離脱率を見ていて、それを順位決定に利用しているのではないかという説がある。GoogleアナリティクスやChromeのデータ抜きにしても、これらの数値は簡単に導き出すことができる。

マット・カッツはこのことを否定しているし、ユーザの滞在時間は簡単にスパムができてしまう上にノイズが多いと言っている。しかし、SEO BLACK HATとランド・フィッシュキンはこれを証拠付けるための研究をおこなっているし、Bingのデュアン・フォレスタは彼らは「dwell time」という名称の要因として、これを順位決定に利用していることを認めている」。

ソース: Matt Cutts via SER

その他の状況に関する要因

QDF(Query Deserves Freshness)【100%】

Googleは全ての検索クエリを同様に順位づけしているわけではない。ニュース関連のような特定の検索クエリに関して言えば、コンテンツが公開されてからの新鮮さというものが大きく影響している(新鮮なうちだけ上位表示されるということもある)。GoogleではこれをQDF(Query Deserves Freshness)と呼んでいる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=QyFlIhruda4), Amit Singhal (http://www.nytimes.com/2007/06/03/business/yourmoney/03google.html?pagewanted=all&_r=0)

Query Deserves Sources (QDS)【70%】

Googleの「Search Quality Rater Guidelines」に記載されている情報をもとに筆者が作った造語である。Googleの検索結果の人為的な調整のことを表す。そこでは「このトピックはエキスパートや分野権威者のソースが重要になってくるものかどうか」といったことを調査しており、すべてのインフォメーショナルクエリがこれに当てはまる(トランザクショナルクエリやナビゲーショナルクエリと違って)。

ソース: Barry Schwartz (http://searchengineland.com/googles-quality-rating-guide-leaked-version-?ve-196619)

Query Deserves Oldness (QDO)【70%】

Googleの特許に記載されている項目を表すために筆者が作り上げた造語である。「幾つかのクエリにおいては、新しいコンテンツより古いもののほうが価値があることがある」と記載されている。

ソース: Patent US 8549014 B2

Query Deserves Diversity (QDD)【70%】

Googleは全ての検索クエリを同様に順位づけしているわけではない。通称QDDと呼ばれる説があるが、これは同じキーワードでも違う定義がされるものの本質的な意味を見出す「entity salience」という概念に依存する。QDFのコンセプトとかぶるところもあるが、どちらかと言えばWikipediaの曖昧さ回避のためのページと同じような感じだ。もし検索クエリが曖昧だったら、検索結果の上位には色々なパターンの結果が表示されてしかるべきである。これは確証されてはいないが、再現性は高い。

ソース: Rand Fishkin (https://moz.com/blog/does-query-deserves-diversity-algorithm-exist-at-google)

セーフサーチ【100%】

アダルトコンテンツに関係するような場合、セーフサーチが有効になっているかどうかで、順位がついたりつかなかったりする。初期設定ではセーフサーチは有効になっている。

ソース: Google (https://support.google.com/websearch/answer/510?hl=en)

AdWordsの利用【5%】

第1回:順位決定にプラスに動く内部SEO要因を参照のこと。

ソース: Matt Cutts (https://www.youtube.com/watch?v=gJ9Xt5PohgU)

AdWordsを利用しない【5%】

同上

ソース: Matt Cutts (https://www.youtube.com/watch?v=gJ9Xt5PohgU)

Chromeのブックマーク【50%】

マット・カッツによって直接否定されてはいるが、2013年のBrightonSEOカンファレンスの「元Google社員のお話」コーナーでお墨付きを得ている。またGoogleの特許にも次のような記載がある。「サーチエンジンは、ドキュメントの重要度を決定するため、どのドキュメントに累計いくら位のブックマークやお気に入りが付けられているのかを解析するかもしれない。」

ソース: Matt Cutts via SER (https://www.seroundtable.com/google-chrome-search-usage-15618.html), BrightonSEO Fireside (http://www.brightonseo.com/videos-2013/ex-googlers/), Patent US 20070088693

Chromeのサイトトラフィック【50%】

こちらもGoogleに否定されているが、「トラフィックをベースにしたドキュメントのスコアリング」という特許もある。これはブラウザのトラフィックデータを利用して順位決定するというもので、特許には下記のように記載されている。「ドキュメントの累積のトラフィックデータは、ドキュメントのスコア作成(あるいは代替スコア作成)として利用されるかもしれない」

ソース: Patent US 20070088693, Lifehacker Analysis (http://lifehacker.com/5763452/what-data-does-chrome-send-to-google-about-me)

ユーザの検索履歴【70%】

Googleでは特に設定を解除しないかぎり、検索履歴をベースにパーソナライズ化が行われるというのはよく知られている。2009年以降、Googleアカウントへのログイン状態にかかわらず、パーソナライズされた検索結果が表示されるようになった。

ソース: Brian Horling (http://googleblog.blogspot.com/2009/12/personalized-search-for-everyone.html)

Google Toolbar上での行動【50%】

Google Chromeのデータをオーガニック順位の決定には利用していないとマット・カッツが言っていたのと同様、GoogleToolbarも否定されている。にもかかわらず、SEO専門家から広く報告され、特許にもブラウザプラグインを利用した順位決定の記述がある。

ソース: Matt Cutts via SER (https://www.seroundtable.com/google-chrome-search-usage-15618.html), Patent US 20070088693

低いAlexaスコア【5%】

うえで述べたように、Googleがトラフィックデータを順位決定に利用しているのではないかとする説もそれに関係する特許もあるが、Alexaのデータを現在利用しているのかどうかを示す証拠は何もない。どの文章にも、もし本当にGoogleがトラフィックデータを使っていたとしても、そのデータはChromeから採取したものであるはずだと考えられており、どちらにせよ彼らはAlexaに頼ることなく情報収集できているはずだ。

ソース: Patent US 20070088693

ブランドワード検索の合計+クリック【70%】

ナンビート・パンダの「サイト品質スコア」という特許には、ナビゲーションクエリのブランドワード検索(「ウィルゲート お問い合せページ」のようなもの)が、ドメイン全体の品質スコアに与える貢献度についてという記述がある。「ユーザの検索行動と特定のサイトやサイト内のリソースへの選択の数によって決定される。」

ソース: Patent US 9031929 B1

長い滞在時間(ロングクリック)【70%】

上記の通り、「サイト品質スコア」特許にはブランドワード検索の合計とクリックを順位要因にするための方法が記載されている。その方法の1つとして、次のような記載もある。「システム構成に依存するのだが、、、例えば、クリックの最低継続時間、あるいはコンテンツの長さごとのクリックの最低継続時間を設定することでシステムはユーザの選択を取り扱えるかもしれない」。これはBingやYahoo!の適応例を見てもありうる話かもしれない。

ソース: Patent US 9031929 B1, Bill Slawski (https://moz.com/blog/long-click-and-the-quality-of-search-success)

サイトマップ登録ツール【20%】

Search Consoleを使えば、XMLサイトマップをGoogleに登録することができる。たしかに、もっと多くのページをインデックスさせることができることもあるにはあるが、「サイト登録」が理想的に機能していないこと同様、「サイトマップ登録」もあまり意味は無い。Googleが自力で見つけられないようなページは、どっちにせよまともな順位がつくものではないのだ。またランド・フィッシュキンはこのツールを利用すると、逆にサイト構造のどこにクロール問題が起きているのかを理解しづらくなると述べている。

ソース: Rand Fishkin (https://moz.com/blog/expert-advice-on-google-sitemaps-verify-but-dont-submit)

インターナショナルターゲッティングツール【70%】

Search Consoleにはインターナショナルターゲティングがうまく設定されていない時の通知機能がある。大抵の場合は「.com」のようなgTLDや、「.co」のようなgccTLDを利用している場合に使うもので、特定の条件下で、特定の国で上位表示するための役に立つ。

ソース: Google (https://support.google.com/webmasters/answer/62399)

再審査リクエスト【70%】

Googleの再審査リクエストは原則として手動対応された場合の解決策として利用される。手動ペナルティを外してもらうための判断を仰ぐため、Googleによる手動サイト審査を嘆願するための手続きである。手動対応はマイナスに働く順位要因のほんの一部に過ぎないことを考えると、このツールが必要になることはほとんど無いはずだ。

ソース: Google (https://support.google.com/webmasters/answer/35843?hl=en)

マイナスに働く外部SEO要因

マイナスに働く外部SEO要因は一般的に不自然なリンクペナルティの原因にもなる、サイトへの不自然なパターンのバックリンクに関連することである。2012年にペンギン・アップデートが導入されるまで、これはペナルティとまではいかず、ほとんど評価減にとどまっていた。その場合、Googleが不自然と感じたリンクからのほぼ全ての効果が無効化されるが、それ以外のダメージはない。
一方、外部要因ペナルティを引き起こすことのあるペンギン・アップデートは、競合のサイトからの悪意ある攻撃を受け入れる原因になってしまうこともある。これはネガティブSEOGoogleボウリングとして知られている。

権威性に関する要因

ページ権威の分散【100%】

PageRankの機能として、ページ上のリンクは全体の権威をリンクを通じて受け渡していく。例えば、1つのリンクを載せたページが1つあるとき、1.0のPageRankを受け渡すと仮定しよう。同じページが1,000のリンクを載せていたら、受け渡す価値は0.001になる。

ソース: Matt Cutts (https://www.youtube.com/watch?t=122&v=QHG6BkmzDEM), Larry Page (http://infolab.stanford.edu/~backrub/google.html)

ドメイン権威の分散【100%】

ページ権威の分散が起こるのと同じような理由で、外部リンクPageRankの分散はドメイン単位でも起こりえる。これにより、誰にリンクするかとか、関係のあるところからリンクをもらうとかにこだわっているサイトは価値があるが、一方で無料のリンク集サイトみたいなものの価値はほとんど無い。

ソース: Matt Cutts (https://www.youtube.com/watch?t=122&v=QHG6BkmzDEM), Larry Page (http://infolab.stanford.edu/~backrub/google.html)

品質に関する要因

リンクまわりにコンテクストが無い【70%】

もしリンクまわりのコンテクストが価値を与えるとしたら、コンテクストが無いのは良くないことだとは考えられないだろうか。ただこれは単純に効果が減るというだけのもので、コンテンツエリアからのリンクと比べたら価値が低いということに過ぎない。

ソース: Patent US 8577893

低品質なリンクまわりのコンテンツ【80%】

Googleはリンクの品質を決定するために、特にパンダ・アップデートとペンギン・アップデートの導入後は、そのまわりのコンテンツの質を見ている。直接的な関連性は分からないが、内部要因の品質を決定しているのと同じような方法で、外部要因の質を決定する方法をGoogleが持っていると思っておいてもよいだろう。

ソース: Patent US 8577893, SEO by the Sea (http://www.seobythesea.com/2013/11/google-context-of-links-identify-link-spam/)

関連性のないリンクまわりのコンテンツ【70%】

「参照コンテクスト基準の順位決定」というGoogleの特許には、Googleがリンクとそのリンク先の関連性を確立するために、どのようにしてリンクまわりのコンテンツを見ているかが記載されている。もしコンテンツが主題を決めて書かれているものでないなら、この強みは生かせない。もしまわりのコンテンツがあまりに無関係なものだとしたら、不自然に見えるし、ペナルティを引き起こす可能性すらある。

ソース: Patent US 8577893

サイトワイド・リンク【80%】

サイトワイド・リンクはそのものに害があるものではないが、マイナス評価を受ける傾向にある。というのも原則としてそれらは1つのリンクとして取り扱われるからである。
マット・カッツもサイトワイド・リンクは自然に発生するものだと認めているものの、しばしばWebスパムとも関連する。このため、GoogleのWebスパムチームはサイトワイド・リンクを手動で調査しているようだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=mTjN9x-by-I)

ネガティブな感情【70%】

2010年にGoogleは、ブランドに向けられている感情(例えばレビューやリンクまわりのコンテンツなど)をランキング要因に使っていると言っていた。レビューはそれより前からローカルSEOもしくはGoogleマップSEOにおいて重要なランキング要因として使われている。ちょっと複雑だが、Mozのカーソン・ワードがこのことについてのとてもよい記事を書いている。

ソース: Amit Singhal (http://googleblog.blogspot.com/2010/12/being-bad-to-your-customers-is-bad-for.html), Patent US 7987188 B2

周辺状況に関する要因

ネガティブSEO(Googleボウリング)【100%】

古い名称で言うところのGoogleボウリング、最近ではネガティブSEOと呼ばれる手法は悪意あるリンクスパムを第三者によってサイトに付けられることである。昔は外部SEO要因の多くが評価減でとどまっていたためこの手法はあまり実用的ではなかったが、今はペナルティが主流の世の中である。
評価減が起こると現状の価値が失われるため、相対的に競合は既存スキームのなかで強くなったように見えるだけだった。しかしペナルティがある現在では、ネガティブSEOの存在は理論的に証明できる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=4zTKl_yz4Ro)

リダイレクトによるペナルティ【70%】

ジョン・ミュラーはGoogleハングアウトで、301リダイレクトがペナルティを引き継ぐことがあることを認めた。言っておきたいのは、普通に何かをしていてこれに引っかかることはめったに無いということだ。もしオールドドメインを購入して、昔のサイトについていたリンク効果を引き継ごうとしたり、ペナルティを避けようとして新しいドメインに移してから301リダイレクトをかけてしまったりしない限りは。

ソース: John Mueller via SER (https://www.seroundtable.com/google-penalty-site-move-18163.html)

Chromeでブロックされているサイト【70%】

Googleは2011年にChromeで検索した場合に、ユーザーが任意のサイトを検索結果に表示させないようにできるツールを導入した。彼らは「今のところユーザーがブロックしているドメインのデータをランキングには使用していないが、データが使えるかどうかは確かめようとしている」と語っていた。だから、これが今すぐランキング要因に適応されるという保証はないものの、Webスパムチームの誰もこのデータを見ようとしていないなんてことを信じるわけでもない。

ソース: Amay Champaneria (http://googleblog.blogspot.com/2011/03/hide-sites-to-find-more-of-what-you.html)

短い滞在時間(ショートクリック)【70%】

Googleの特許によればブランドクエリにおいて次のような条件を求めていると解釈できる。「クリックの最低継続時間、あるいはコンテンツの長さごとのクリックの最低継続時間を設定することでシステムはユーザーの選択を取り扱えるかもしれない」。スティーブン・レイは「In The Plex」という本で、これがGoogleが最も正確に検索結果の品質を計測する方法はこれであると述べている。BingとYahoo!は滞在を使うことをほのめかしており、すでに利用しているとする説もある。

ソース: Patent US 9031929 B1, Steven Levy (In The Plex), Bill Slawski (https://moz.com/blog/long-click-and-the-quality-of-search-success)

長い検索行動完了までの時間【50%】

確証は得られていないものの、クリック率と滞在時間がランキング要因として使われていることを示唆する証拠はたくさん見つかっている。
Googleの従業員であるデヴィッド・ミーズが共著のリサーチペーパーの内容は、あるコンテンツが検索ユーザーのニーズを満たすまでにどれくらいの時間がかかっているのかを分析した後、アルゴリズムの一部を変更してどちらが早く満足する結果にいたるのかをテストするというものである。これは検索ユーザーの満足率によって、自動のA/Bテストが行われ、その結果ランキング要因の比重に歪みが生じる可能性を示唆していると言えるのではないだろうか。

ソース: David Mease (http://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en/us/archive/dmease-sigir09-full.pdf)

同じ/24 IPからのリンク(クラスC一致)【70%】

同一のクラスCのIPからのリンクが悪さをするという話を聞いたことがあるかもしれない。現在のインターネットいうものがクラス体系に依存するものではなくなったので、技術的に言って正しいというわけではない。クリシャナ・バーラットはヒルトップの研究において、「もし2つのホストが同一のものだとしたら、その2つはIPアドレスの最初の3つの8ビット帯を共有しているはずだ」と述べている。それらのホストネームは別々の「エキスパート」として扱うことはせず、評価減の対象となる。マット・カッツは少しくらいの同一運営者のサイトからの相互リンクくらいなら、ペナルティの対象にはならないといっていたが、それ以上になるとペナルティの可能性がある。

ソース: Krishna Bharat (ftp://ftp.cs.toronto.edu/pub/reports/csri/405/hilltop.html)

リンクのパターンに関する要因

過剰なクロス・サイトリンク構築【100%】

複数サイトを運営している場合、リンク権威を増やすことを目的に、いたずらに相互にリンク構築をするのはやめたほうがいい。相互リンクのドメイン数が増えていくと同時にリスクもあがっていく。同一オーナーによるサイトは、ドメイン登録者やIP、コンテンツ類似性、デザイン類似性などでGoogleに探知されており、ほとんど起こることはないが、ペナルティを引き起こしたりもする。インターナショナル化や、特別それをすることでユーザーの利便性を向上させるような場合はこの限りではない。

ソース: Matt Cutts (https://www.youtube.com/watch?v=JzaimchdNpM)

フレッシュなアンカーテキスト【80%】

リンクのアンカーテキストの古さは重要で、特に他ドメインにのっているリンクのアンカーテキストが変更されると重大な問題を引き起こすことがある。考察になるが、そういうリンクは第三者が自然につけたものでなく、順位を操作するために付けられているものだと見えてしまうからだ。

ソース: Patent US 8549014 B2

不自然なアンカー割合【80%】

ある程度ではあるが、リンクのアンカーテキストはページの主題との関連性を生み出す。他のSEO戦術同様、限界を超えてやり過ぎると対応の対象になる。特定のアンカーに対するしきい値はシンプルに10%に設定されているようだ。これはペンギン・アップデートの機能である。

ソース: Penguin 1.0 Announcement

(http://googlewebmastercentral.blogspot.com/2012/04/another-step-to-reward-high-quality.html), Moz Study (https://moz.com/blog/postpenguin-anchor-text-case-study)

不自然なアンカー種類割合【70%】

Mozの調査が示す通り、1つのアンカーテキストに偏り過ぎるとペンギン・アップデートのペナルティにひっかかる。そして同じことが、アンカーテキストが多すぎるサイトにも言えるだろう。人気のブランドサイトのバックリンクを分析してみると、ブランド名アンカーや「ここをクリック」アンカー、URLアンカー、バナーが多くを占めていることがわかる。自然な範囲を超えてやり過ぎると、評価減をまねいたり、もちろんペンギン・アップデートのおかげでペナルティを受けたりする。

ソース: 考察による

不自然なリンクサイトの種類【70%】

Googleが自然さをこれ以上ないほど注視していて、同一アンカーで10%を超えたためペンギン・アップデートにより激しくペナルティを受けているという幾つもの調査結果を受け入れられるのなら、いかなる種類の外部要因の不自然さも、ネガティブ要因になり得ると考えられはしないだろうか。これを示すケーススタディは今のところ発表されていないが、うまくいっていたSEO戦術が、欲をかきすぎて度を越し、ペナルティを受けるところを何度も目撃している。

ソース: 考察による

Webスパムの痕跡【70%】

「痕跡」とは、本当にどんな些細な事でもなり得て、同一ソースが起こした行動だとGoogleが結び付けられるかどうかにかかっている。それはフォーラムのユーザーネームや、人の名前、写真、寄稿者名、プライベートブログと関連のあるWordpressテーマ、その他どんな些細な事でもWebスパム行為を起こそうとしたものと関係があればいい。もちろん、痕跡そのものが悪いものというわけではないが、ただサイトにほんのすこしGoogleWebマスターガイドラインに違反するような兆候がみられると、痕跡はペナルティを引き起こす要因になり得る。

ソース: Matt Cutts via SEL (http://searchengineland.com/google-squashes-backlinks-com-another-link-network-outed-by-google-180006)

アフィリエイト被リンク【20%】

まず言っておきたいのは、アフィリエイトリンクというのはたいてい301リダイレクトやパラメータ付与による重複コンテンツによる評価減になるので、PageRank受け渡しに影響があるということだ。アフィリエイトリンクは故意か否かにかかわらず、有料リンクペナルティが存在するのと同じ理由で価値が下がる可能性があると考えられる。マット・カッツは、「どうしても有料リンクペナルティを気にするなら」、アフィリエイト発リンクに「nofollow」をつけることを推奨しているが、「普通は問題ない」とも付け加えている。

ソース: Matt Cutts (https://www.youtube.com/watch?v=31BA0rwnfk8), 考察による

フッターリンク【80%】

まずはっきりさせておかなければならないのは、フッターに詰め込んだリンクというのは、コンテンツ部分に設置しているリンクと比べ、同じ価値を受け渡すわけではないということだ。このコンセプトはページレイアウト・アルゴリズムが働くのと同じ仕組で成り立っているが、フッター部分のリンクはファーストビューより下に設置されたコンテンツより更に悪い扱いを受けるようだ、というのもフッターへの詰め込みに対してGoogleは幾度と無く注意をしているからだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=D0fgh5RIHdE)

ヘッダー、サイドバーリンク【70%】

フッターリンク同様、Googleはヘッダー部分やサイドバーのリンクを特定することができる(それが固定か変動か、サイトワイドかどうかに関わらずだ)。これを彼らは特許内で「ボイラープレート」と定義している。特許には次のように記述されている。「ある記事がボイラープレートが削除された後にインデックスされたとしたら、その結果与えられる重みはより正確なものになるだろう。なぜならそれが相対的にボイラープレートでは無いものに依存する比重が高くなるからである。」

ソース: Patent US 8041713 B2

著者人物紹介リンク【70%】

いつだってリンクビルディングの手法が簡単になりすぎると、Googleはその手法の価値を下げる。だからといってなくなりはしないが。
ただ、2010年に流行った「ゲスト投稿」作戦は、2005年に流行った「記事マーケティング」とほとんど同じようなものだが、数が多すぎたようだ。結果として、記事ページの価値が下がり、リンク場所はブログの著者紹介ページに落ち着いたようだ。これはよく言われる迷信、人間向けに行っているゲスト投稿、例えばニューヨーク・タイムスの社説や本当に価値のあるメディアプレイスメントなどだが、を行っているブランドは罰せられないというものとは対称的だ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/guest-blogging/)

コンテクストの無いリンク割合【50%】

もしまわりにコンテクストの無いリンクがたくさんあって、それがある一定量を超えたら、Webスパムの痕跡であるとみなされはしないだろうか。この仮説は次の3つのアイデアを元に考えている。1つはGoogleの特許の「参照コンテクスト基準の順位決定」というもので、リンクまわりのコンテクストが品質調査に役に立つという内容のものだ。2つ目はマット・カッツがよく行っているWebスパム痕跡の議論、最後がある程度のコンテクストの無いリンクは別に自然であるという事実である。

ソース: Patent US 8577893

急激なリンクの増加【70%】

Googleの特許を引用すると、「バックリンク数の急激な増加は、検索エンジンにドキュメントのスコア決定の要因として利用されるかもしれないが、検索エンジンに対してスパムを行っているシグナルとして扱われるかもしれない」。急激な、バックリンクの自然発生はWebスパムフィルタによるより精密な調査を招くことになるかもしれないが、もし人為的なリンク操作ではなく、本当に自然な拡散やバイラル効果によって発生しているのだとしたら、問題ないどころかそれはとても良いことである。

ソース: Patent US 8521749 B2

急激なリンクの減少【80%】

急激なリンクの増加とほとんど同じ理由で、急激な減少がった場合も精密調査の対象になり得る。急激なリンク減少は論理的に考えて問題である。なぜなら、大抵の場合Webスパムは期限が切れたらリンクを一気に外すからである。Googleが喜ぶタイプのリンクというのはずっと貼り続けられているようなリンクである。

ソース: Patent US 8521749 B2

無関係サイトからのリンク【20%】

ヒルトップ・アルゴリズム以降、Googleは関連のあるサイトからのリンクにボーナスを与えている。
その結果、無関係なサイトからのリンクは本質的に危険であるというSEO迷信と数々の危ない「リンク解除」や「リンク否認」サービスが生まれている。たしかにそういったサイトからのあまりに多いリンクは不自然さの痕跡となることもあるが、少なくとも逆に似ているようなサイトからのリンクしかないというのも不自然極まりない。

ソース: 人気サイトのリンクプロファイル調査による

ネガティブなページリンク速度【70%】

Googleの特許には「文書(もしくはページ)へのリンクの増加・減少の累積割合を分析することにより、検索エンジンははたしてその文章がどれほど新鮮なものなのかを評価するシグナルを付与することができるかもしれない」という記述がある。これによれば、被リンクが減少割合にあればダメージを与えるかもしれないということだ。特に(それに限定する必要はないが)検索クエリがQDFに関連付けられているときはなおさらだ。

ソース: Patent US 8521749 B2

ネガティブなドメインリンク速度【50%】

サイトの被リンクたちが長期的に見たとき、不自然たり、リンク獲得の数より失っている数の方が多かったとしたら、何かがおかしいとは考えられないだろうか。上の要素と同じだが、ドメイン単位でもそれは適応されていてもおかしくないと思われる。

ソース: Patent US 8521749 B2

ペナルティを受けたサイトからのリンク【80%】

Googleはペナルティを受けがちなサイトとの関係を「悪質な近隣」という言葉を使って表してきた。ペナルティの原因にかかわらず、すでにペナルティを受けているサイトからリンクを受けると、精密調査の対象となり、最終的にペナルティを引き起こす可能性すらある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=HWJUU-g5U_I)

選定されたコンテクストが無い【5%】

マット・カッツは全てのリンクが発リンクされる前に慎重に選定されるべきだと言っている。しかし、全てのリンクが選定されたコンテクストの中に設置されるべきだとは言っていない。つまり、文中とか記事の中に設置する必要は必ずしも無いということだ。

ソース: Julie Joyce (https://northcutt.com/seo-myths-from-experts/)

スキームに関する要因

有料リンク計画【100%】

PageRankの受け渡しを目的にして、サイトオーナーより直接リンクを買ってはいけない。これはFTC(連邦取引委員会)の有料署名取引に関するガイドラインに直接影響を受けたものだとマット・カッツは語っていた。言い換えるなら、バックリンクは署名みたいなもので、本当の署名というものは対価なしに自然に発生すべきものである。

ソース: Google (https://support.google.com/webmasters/answer/66356?hl=en), Matt Cutts (https://www.mattcutts.com/blog/selling-links-that-pass-pagerank/)

コメントスパム【70%】

もし繰り返しや、不自然なフォーマットでのコメントかさ増しスパムなどを行っているなら、それらのリンクは評価減やペナルティを引き起こしたりするだろう。特にコメントが自動生成で変なアンカーテキストのものだったり、無関係や繰り返しコンテンツの痕跡を残しているのなら最悪だ。反対に、ちゃんとしたコメントはむしろ推奨されるものだ。そういう場合はむしろ本名を利用することをマット・カッツは推奨している。

ソース: Matt Cutts (https://www.youtube.com/watch?v=hNDRlVSWTRY)

フォーラム投稿スパム【70%】

人とのコミュニケーションを生むことを目的としている限り、フォーラム投稿は全く問題なく、むしろインバウンド・マーケティングの良い手段でもある。ジョン・ミュラーが認めたところによると、Googleはフォーラム投稿スパムをシステムで監視しているとのことだ。

ソース: John Mueller via SER (https://www.seroundtable.com/google-forum-link-dropping-18609.html)

記事広告(ネイティブ広告)【80%】

ネイティブ広告として知られる記事広告は、Googleスパムチームにシステム的に見つけ出され、有料リンクとしてみなされるようだ。広告内のリンクはそれとわかるように表記すべきだし、ペナルティのリスクを無くすためにrel=”nofollow”を記載すべきである。思うに、これが本来nofollowが存在している理由なのだろう。ちなみに、表記のないネイティブ広告はGoogle Newsからの削除対象でもある。

ソース: Matt Cutts (https://www.youtube.com/watch?v=1SmlsfSqmOw)

フォーラム署名とプロファイルリンク【70%】

Googleは普通の本文と同じ扱いをうけPageRankを受け渡す自然なディスカッション内のリンクと、フォーラム署名内のリンクを区別できるようだ。同じようなもので、フォーラムのプロファイルを作成するというWebスパムも人気だ。どっちの戦術も最終的にはほんのちょっとの効果を足しながら、ペナルティに近づいていくだけのものに過ぎないだろう。

ソース: Google (https://support.google.com/webmasters/answer/66356)

WordPressスポンサーテーマ【70%】

サイトワイドのフッターリンクに価値が低いという話に付け加えて言うなら、バックリンクをWordPressのテーマのフッター部分に埋め込むというSEO手法はGoogleのWebスパムチームに完全にバレている。かつては効果あったものだが、今ではほとんど意味がない。そういった手法はスパムの痕跡を完全に残してしまうし、Googleウェブマスターガイドラインで禁止されている、ウィジェットの例と同じようなものだからだ。

ソース: Matt Cutts (https://www.mattcutts.com/blog/by-the-way-2/)

ウィジェットリンク【70%】

ウィジェットが何の害もなくユーザーの役に立っていたころは、これほど楽しいリンク獲得戦術はなかった。しかし、リンクが本物の署名として扱われる用になった現代にはなじまなかったようだ。もちろん2015年現在でもウィジェット配布を行うのは悪いことではないが、Googleは「nofollow」をつけること、アンカーテキストを埋め込まないことを求めている。Googleの目が黒いうちは、それに従わないととんでもない目にあうだろう。

ソース: Google (https://support.google.com/webmasters/answer/66356?hl=jp)

リンクホイール【80%】

ラリー・ペイジのPageRankについての論文を読んだことがあれば、同じサイトに何度も何度もPageRankを受け渡すことを目的として、サイト同士を三角や円形状にリンクさせるということを思いついたことがあるだろう。段階的なものではあるが、PageRankの減衰は起こり得る。もし今がまだ2005年だとしたら、その手法はとても効果的で、思いついた自分をほめてあげたくなるだろう。ただ、2015年現在でリンクホイールに巻き込まれてしまったとしたら、激しい評価減や、ペナルティの可能性を覚悟しておいたほうが良い。

ソース: Matt Cutts via ClickZ (http://www.clickz.com/clickz/column/1714909/googles-matt-cutts-the-big-interview)

記事ディレクトリ【70%】

Googleはパンダ・アップデートを用いてドメイン全体でのコンテンツスコアを罰し、ペンギン・アップデートで不自然なリンクパターンを罰してきたが、はたしてそれに加えてさらに記事ディレクトリを罰する必要があるのかは謎だ。しかし2014年にマット・カッツが投稿した動画を見る限り、記事ディレクトリは問題としているようだし、そういった手法を使っているのなら長い目で見たとき問題になるかもしれない。

ソース: Matt Cutts (https://ww w.youtube.com/watch?v=Bo75Og4M34Q)

無名のWebディレクトリ【70%】

無名のWebディレクトリは古いリンク構築手段の1つだ。慎重な選定を行っていないWebディレクトリを利用すれば、有料リンクと同じペナルティになるとマット・カッツも言っている。彼は例えばYahoo!ディレクトリなら問題ないと言っている。それが有料無料にかかわらず、慎重な選定が行われていれば大丈夫であり、そうでない「誰でもOK」のようなものならダメということのようだ。

ソース: Matt Cutts via ClickZ (https://www.youtube.com/watch?v=rKUlVquEImc)

相互リンク【80%】

Googleは相互リンクに関して、外部リンクを貼り過ぎたことによる「PageRankの流失」の影響以上に、評価が低下する傾向にあるようだ。かなり初期のリンクビルディング手法である相互リンクのやり過ぎは、そのリンクが自然ではないと示しているようなものだ。

ソース: Matt Cutts (https://www.youtube.com/watch?v=JO8cIcOFo4g)

プライベートネットワーク(リンクファーム)【80%】

保有サイト間のクロス・サイトリンク構築がペナルティを引き起こすのと同じ理由で、SEO目的のプライベートネットワークの発見にを構築もペナルティを引き起こす。Googleは特にこういったネットワークに力を入れており、数えきれないほどのWebスパム自動認識システムを利用し、手動対策を用いてネットワーク全体を葬り去るのに余念がない。2015年現在でも、短期的なブラックハットSEOはこの手法を広く利用しているが、長い目でみて、すべてのプライベートネットワークは対処される運命にあるようだ。

ソース: Matt Cutts via ClickZ (https://www.youtube.com/watch?v=xjAvRwbOewE)

リンクビルディング【5%】

いつまでもなくならない迷信の1つが、リンクビルディングが悪いことだというものだ。マット・カッツは初めからずっとリンクビルディングのアドバイスをしているし、リンクビルディングは昔ながらのマーケティングがWebに適応した形に過ぎない。リンクビルディングがGoogleの規約に反するのは、手法が検索エンジン対策に集中した場合のみである。リンクはマーケティングである。人間向けに行っている限りは。

ソース: Matt Cutts via SEL (http://searchengineland.com/matt-cutts-link-building-sweat-plus-creativity-197017)

リンクビルディング・サービス【5%】

リンク追跡サービスにお金を払うのは、有料リンクに手を出すのとは違うことだ。もちろんそういったサービスが蓋を開けてみたら、どっかの誰かに頼んでPageRankを渡すことを目的にリンクを買うようなものだったら話は別だが。安全なリンクビルディング戦略は一種の広報サービスみたいなものだ。必ずしも掲載が保証されていないが、得るものは大きい。マット・カッツは「慎重な選定」ということを動画の中で言っていた。

ソース: Matt Cutts (https://www.youtube.com/watch?v=rKUlVquEImc)

マイクロサイト(※訳注サテライトサイト)【5%】

サテライトサイト経由でペナルティが来るという話を聞いたことがあるかもしれない。マット・カッツがサテライトサイトについてのGoogleの見解を教えてくれた。Googleは特にサテライトサイトを見張っているわけでもペナルティを与えるわけでもない。ただ、長期的な戦略としてみたとき、あまり効果的な戦略とは言い難いし、EMDの効果がほとんど考慮されなくなったため、それを狙ってサテライトサイトを作る理由もなくなった。

ソース: Matt Cutts (https://www.youtube.com/watch?v=NmiSDxR68Nk)

(不正な)クリック操作【70%】

もしクリック率がポジティブなランキング要因として利用されているとするならば、ここのスパム対策が必要だと気づくと思う。ランド・フィッシュキンのTwitterを使ったクリック率の実験では、たくさんクリックしたページが6位から1位まで上昇し、その後12位まで下落した後、もとの6位にもどった。これはわずか数日のうちにおこったことである。

ソース: Rand Fishkin (http://www.slideshare.net/rand?sh/onsite-seo-in-2015-an-elegant-weapon-for-a-more-civilized-marketer/1)

(不正な)ブランド検索操作【50%】

もし特許が示す通り、ブランド検索がランキング要因なのだとしたら、ここにもスパム対策を施す必要があるだろう。さもなくば、この要因でスパムを行うのはとても簡単になってしまう。

ソース: Patent US 9031929 B1

その他干渉する可能性のある要因

Googleダンス【70%】

これはGoogleが年に数百行っているというアルゴリズム更新とともに起こる一時的な歪みである。技術的に言えば、この歪みはポジティブにもネガティブにも働く。なぜなら、ただの順位の再配置でしかなく、どれかが上がるということは、別のどれかが落ちるということだからだ。ただ、Googleダンスに関して言えば予測不能なので、ネガティブ要因に分類させてもらった。

ソース: Danny Sullivan (http://searchengineland.com/google-dance-is-back-134125)

手動対応【100%】

様々なランキング要因を利用しているのはさておき、Googleは未だにときどきではあるが、問題解消から回復するまで半年から1年ほどかかるほどの手動対応を行っている。これらの手動対応は通常、Search Consoleで確認することができる。

ソース: Matt Cutts (https://www.youtube.com/watch?v=2oPj5_9WxpA)

リンク否認【80%】

2012年にGoogleは被リンクを完全に無視してくれと申請するためのツールをWebマスターツールに追加した。この影響は永久的且つ不可逆的で、そのため正しく利用しないとブランドが時間をかけて培った検索評価にダメージを与えることになる。これは手動対応に対する最後の手段か、過去に行ったリンクスパムをなかったことにするためだけに使うべきである。

ソース: John Mueller via SER (https://www.seroundtable.com/google-penalty-site-move-18163.html)

クロール速度の変更【100%】

Search Consoleを利用すれば、Googleによるサイトのクロール速度を変更することができる。速度を上げることはできないが、クロール速度を遅くしたりゼロにしたりすることはできる。これはインデックスに影響をあたえるので、順位にも影響するということだ。特にQDFが関与してくるような場合はなおさらだ。

ソース: Google (https://support.google.com/webmasters/answer/48620?hl=jp)

インターナショナルターゲティングツール【50%】

Search Consoleはインターナショナルターゲティングを正しく設定できていなときのためのツールを用意している。もしこのツールがターゲットとすべき地域全てを含まない状態で、検索結果への表示地域を限定してしまっているとしたら問題になるかもしれない。

ソース: Google (https://support.google.com/webmasters/answer/62399)

法的な削除リクエスト【80%】

Googleは、違法なコンテンツを載せているサイトをユーザーが発見した際に、法的な削除リクエストをするためのフォームを用意している。このページが暗に示していることは、どんなコンテンツであれ、Googleから削除される可能性があるということだ。もちろんだからといってGoogleがこのリクエストを意味なく受け入れる訳はないと信じているし、あとは誰であれいたずらにこのリクエストをしないと願うばかりだ。

ソース: Google (https://support.google.com/legal/answer/3110420?hl=jp)

DMCAレポート【80%】

コンテンツの盗用や出典未記載のコンテンツ流用、著作権違反などの自動検出に加え、Googleはユーザーがそういったコンテンツを見つけ次第、DMCAレポートをGoogleに提出するよう推奨している。これにより米国のDMCAプロセスが始動され、認定され次第Googleは否応なく該当コンテンツをドメインから消去するように動く。

ソース: Webmaster Tools (https://www.google.com/webmasters/tools/dmca-dashboard), DMCA Process (https://blog.nexcess.net/2012/02/22/dmca-process-infographic-?owchart/)

Pocket