検索エンジン最適化
検索エンジン最適化(けんさくエンジンさいてきか、英: search engine optimization, SEO、サーチ・エンジン・オプティマイゼーション)とは、検索エンジンのオーガニックな検索結果[注 1]において、特定のウェブサイトが上位に表示されるよう、ウェブサイトの構成や記述などを調整すること[1]。また、その手法の総称[2]。
サーチエンジン最適化ないし検索エンジン対策とも呼ばれ、ウェブポジショニングと同義である。サーチエンジンマーケティングとあわせて用いられることも多い。英語表記のSEOから「セオ」とも呼ばれる[2][注 2]。 SEOという言葉は順位を上げることを指しているのではなく、検索エンジンがサイトを理解して適切な結果を反映させていくことを指している。 [3]
順位決定には独自の計算式(アルゴリズム)が用いられるが、アルゴリズムは公開されていない場合も多く、特定の検索エンジンの特徴や基準を調査する専門家も存在する[2]。
Googleは、例えば米国で1日あたり平均およそ2億4600万の検索結果を返しており[1]、検索エンジン最適化を行うことは重要なマーケティングの一つである[1]。また、ウェブ利用者の多くは「検索結果の上位に表示される企業はメジャーブランドである」と考える傾向にあることが明らかとなっている[4]。
ウェブサイトを完全にインデックスさせるもっとも簡単で効果的な方法はサイトマップを提供することとされるが、これは検索結果には直接影響しない[1]。
歴史
編集検索エンジン最適化は、1990年代半ば、最初期の検索エンジンが初期のウェブを登録した時に始まった。検索エンジンの登場によって自分のサイトへのアクセスが増加したため、多くのウェブページ所有者はすぐに検索エンジンの価値を評価するようになった。
サイト所有者の多くは、検索エンジン所定の方式にのっとり、自身のサイトのURLを検索エンジンのデータベースへ送信し、ウェブを探索するソフトウェア(クローラ)に親和性の高いウェブページを目指すため、自身のサイトを変更し始めた。そしてまもなく検索エンジン最適化を行う会社も立ち上げられ、検索エンジンの内部論理アルゴリズムの分析・探究が促進された[5][出典無効]。
論争
編集この産業が発展すると、YahooやGoogleなどの検索エンジン運営会社は良心的でないSEO企業がどんな手を使ってでも顧客のためにアクセス数を増やそうとするのを用心するようになった。
YahooやGoogleなどの検索エンジン運営会社は次々と対策をとって、不適切な検索エンジン最適化に分類されるテクニックによる操作を除去するように企図した。それに対し、いくつかのSEO会社は、さらに巧妙なテクニックを使って順位に影響を与えようとした。
Googleは特にスパム行為に厳しく、ドイツのBMWとリコーのウェブサイトがJavaScriptによるリダイレクトを行なった時にそれをスパム行為と判断し、検索対象から削除した事がある。日本でもサイバーエージェント系列のウェブサイトが、スタイルシートによって大量の隠し相互リンクをページ内に埋め込んだ行為をスパム行為と判断されて、検索対象から削除された。現在は、いずれのウェブサイトも対処を行い、再び検索対象となっている[要出典]。
このように、検索結果から排除されることを、村八分になぞらえて検索エンジン八分、特に代表的な検索エンジンであるGoogleを代名詞としてグーグル八分と呼ぶ[5][出典無効]。
和解
編集当初は「ウェブページのページランキングを上げることを目的とするいかなる形態のSEOも検索エンジンスパムである」としてきた検索エンジン業者[誰?]だったが、時が経つにつれて、「サーチエンジンの順位向上とアクセス増加の手段として受け容れられるもの」と「そうでないもの」に分かれるという結論に達した。
2000年代前半には、検索エンジンとSEO会社は非公式な休戦に達した。SEO企業にはいくつかの階層があり、もっとも評判の高い企業は内容に基づいた最適化を行い、検索エンジンの(渋々ながらの)承認をうけている。これらのテクニックには、サイトの案内やコピーライティングを改良して、ウェブサイトを検索エンジンのアルゴリズムによく知らせるように企図することが含まれる。
手法
編集検索エンジン最適化には、適切なキーワードをタイトルやページ先頭に持ってくる手法や、検索エンジンスパムを使う手法まで、多様な手法が用いられる。検索エンジンスパムを利用したことが発覚すると、検索エンジンのインデックスから削除されるなどのペナルティが課せられることがある。特定のドメイン・IPアドレスを検索対象から除外するペナルティもあり、ドメイン・IPアドレスの再取得といったコストがかかってしまうことがある。
Googleのアルゴリズムには新しい情報を優遇するというルールがあり、このアルゴリズムのことをQDF(Query Deserves Freshness)という[6]。ただし、これは"新着情報"を優遇するものであり、時事的でない情報を優遇するものではない[7]。
2013年のインドのウェブマスター向け公式ブログや2014年のSMX Advancedにおいて、Googleは検索順位を決定するために200以上のアルゴリズムを利用していることを明言している[8][9]。Googleはアルゴリズムを非公開としているが[10]、世界中の専門家が議論を重ねたうえで独自に作成したアルゴリズムのリスト[11]が存在し各国で翻訳されている。これらのリストはGoogleが取得した特許や内部リーク情報などから作成されており、100%信頼できるものではないが、検索エンジン最適化を行う目安となっている。なお、アメリカ民間企業が実施した2014年度版の検索順位決定要因に関する調査[12]では、特定のキーワードの影響力が減少する一方で、コンテンツの関連性や専門性などを重視する傾向が見られた。
検索エンジン最適化は、大きくホワイトハットSEOとブラックハットSEOに分類される。ホワイトハットSEOはユーザーに重点を置いた最適化で、ブラックハットSEOは検索エンジンを騙して不正に順位を上げようとする最適化である[13]。検索エンジンのシステムの裏をかくような最適化を行っているウェブサイトは不適切とみなされ、検索結果から除外されることがある。なお、Googleは、自社が公開しているウェブマスター向けガイドライン(後述)に準拠している最適化の手法をホワイトハットSEO、そうでない手法をブラックハットSEOと定義している。GoogleはブラックハットSEOを行うことをバッドプラクティスであるとしており[14]、ブラックハットSEOを行うとGoogle検索でサイトの掲載順位が下落したり、ページがGoogle検索から排除されたりすることがある[15][16]。
ホワイトハットSEO
編集検索エンジン最適化の手法のうち、ユーザーに重点を置いてサイトを改善する検索エンジン最適化のことをホワイトハットSEOと呼ぶ[17]。この最適化の多くは、コンテンツを構造化して意味づけをする、検索エンジンが利用できるメタデータを提供する、等、SEOという手段が認知される以前から推奨されている手段を活用したものである。また、外部SEOのバックリンクの獲得においても、ホワイトハットSEOの実践が不可欠です。検索エンジンの評価を高めるためには、Googleが推奨する手法に従い、ユーザーに価値を提供しながら自然にリンクを獲得することが求められます。これにより、検索エンジンからのペナルティを避け、長期的な成果を出すことが可能です。[18]
目的キーワードの分析
編集検索エンジン最適化の出発点は、対象としたいウェブ利用者がどういったキーワードで必要とする情報を探しているかを理解することである。例えば、製品やサービスを比較しながら探す場合、検索ボックスには製品の固有名詞ではなく一般名称が、特定製品の機能名ではなく一般的な機能名が打ち込まれる傾向にある。[19]
キーワードに沿ったページの構成
編集Googleは、ユーザーがサイトを検索するときに入力する可能性の高いキーワードをサイト内に含めることを推奨している[15][16]。
あるページが、あるキーワードにどの程度関連しているかは、検索エンジン・スパイダーのアルゴリズムに基づいて決定される。検索エンジンは、ウェブサイトが閲覧されるときに閲覧者が読もうとするテキストを内容に基づいて整理し、そのページは何を記しているページで、あるキーワードに対する関連性がどの程度かを判断する。
リンクの作成
編集多くの検索エンジンは、ページの価値を判断する基準に、そのページにどれだけの被リンクがあるかという基準を採用している。したがって、ウェブ上の他の関係あるサイトに自分のコンテンツについて通知し、リンクを求めたり、自己が運営する既存のサイトから適切なリンクをはったりすることが対策として行われる。ユーザーに役立つページを作成することで、閲覧したユーザーからのリンクを得るという対策が行われることもある[20][21]。
また、スパイダーはコンテンツのハイパーリンクを辿って巡回を行うので、検索エンジンに登録してもらいたい場合、そのページへのリンクを作成しておくことが必要になる。「サイトマップ」を作成することはその手法の一つで、推奨されていることでもある。サイトマップは、トップページやサイト上のすべてのページからリンクされているのが好ましい。このようなページがあると、ひとたびスパイダーがサイトを見つけた時に、そのサイト全体が索引化される確率が高まる。
HTMLによる最適化
編集検索エンジンは、HTMLのtitle、meta、strong、hnの各要素などを重視すると考えられているため、重要なキーワードをこのタグで囲って、重要であることを示すこともされる。例えば、見出しとして強調したい語句を font 要素などで赤く大きな文字で表示するようにマークアップすると、それは単に「赤くて大きな文字」というようにしか解釈されないが、h1 要素(とスタイルシートによる装飾)を使えば、検索エンジンにとっても、それが見出しであると解釈され、検索にヒットしやすくなるという具合である。これは、基礎的なセマンティック・ウェブと言うことも出来る。
ブラックハットSEO
編集ホワイトハットSEOとは逆に、検索エンジンを騙し、ウェブページを本来よりも高く評価させる検索エンジン最適化のことをブラックハットSEOと呼ぶ[22]。GoogleはブラックハットSEOに準ずる行為をウェブマスター向けガイドラインで禁じており[15]、ブラックハットSEOやそれに準ずる行為を行うと手動による対策が適用されることがある[15]。
Ptengineのマーケティング部門でVPを務めるジェフ・ドイッチュは、Googleに対するスパム行為で月収5万ドルの収益をあげていたことを明らかにした。Googleは毎日スパムにあたるワードを4億5000万個インデックスしているが、ドイッチュはこのシステムを潜り抜け、高く順位付けされる記事を生成するスパムマシンを構築し収益をあげていた。しかし、2012年3月16日、Googleのマット・カッツがALN(Authority Link Network)に関して言及したツイート[23]を投稿し、その後GoogleによりALNネットワークが発見され、すべて破壊されたとされる[24]。
関係のないキーワード
編集背景色と同色にするなどして、ユーザーには見えない文字をページ内に埋め込む行為は、Googleが定めるウェブマスター向けガイドラインで禁じられている[15][25]。“隠し文字”といわれる。スパムを役に立たないサイトにリンクすることも、Googleの悪い評価になる。
キーワードの乱用
編集検索結果でのランキングを操作するために、ウェブページにキーワードや数字を埋め込むことは、Googleが定めるウェブマスター向けガイドラインで禁じられている[15][26]。電話番号の羅列や、サイト内容とは直接関係のない大量の地名(市名や区名など)の埋め込み、不自然なほどの同じ単語の繰り返しなどがこれに該当する[26]。
不適切なリンク
編集検索結果でのランキングを操作するために、ユーザーからは見えない隠しリンクを作成することは、Googleが定めるウェブマスター向けガイドラインで禁じられている[15][25]。
- リンク・スパム
- Google検索は、適切に得られたのではない何千ものリンクを見て、あるページの関連度(ランキング)を高いと判断してしまう場合がある。SEO担当者らは所望のキーワードを内向きリンクのハイパーリンクされたテキストにおいている。「Google爆撃」 (en:Googlebombing) とも呼ばれるこの行為は、悪ふざけでもあり得るが、商業上の利益のため順位に影響を与える意図的な試みでもありうる。
ドアページの作成
編集目的とするページへの誘導のみを目的としたページを作成し、検索エンジン用に文書構造などを最適化する。入り口になるページはドアページと呼ばれる。
クローキング
編集クローキングは、人間に見えるページと異なるページを検索エンジン・スパイダーに提供する技術。検索エンジン最適化の手法のうち最も論争の種となるものである。クローキングは特定のウェブサイトのコンテンツを検索エンジンを誤解させる不当な試みでありうる一方で、検索エンジンが処理・解読できないが人間の閲覧者に有用なコンテンツを提供するのに用いることができる。クローキングはウェブサイトのアクセシビリティを視覚障害者やその他の障害者に提供することにも用いられる。あるクローキング行為が倫理的か否かを判定するよい基準のひとつは、その行為がアクセシビリティを高めているかどうかである。
リンクの売買
編集検索エンジンでの結果を向上させることを目的として、他サイトからのリンクを購入し、あるいは自サイトからのリンクを販売したりすること。Googleはこれを禁じ[27]、不当な有料リンクの報告を募っている[28][29]。 Googleはこの行為に対し、サイトからの不自然なリンクという個別のペナルティを設けている. これはgoogle 2020のアップデートです。[30]
無名な検索エンジンへの登録
編集Googleは、無名な検索エンジンへ登録することをスパム行為であると認定している[要出典]。
ユーザーが検索フィールドに入力する単語数の平均は3.1単語であり、Googleはこれらの入力をもとに、数千、場合によっては何百万ものページを検索結果として返す。Googleには、3つの単語をもとにして最良の検索結果を提供する高度な方法が用意されている。これらの結果のうち、10件のみが検索結果の最初のページに表示される[1]。
また、Googleはウェブページをクロールするために膨大な数のコンピュータを使用しており、これを行うプログラムはGooglebotと呼ばれる[1]。
Googleの検索エンジンの順位付けでは、ページ内のコンテンツと外部からの被リンク(バックリンク)の量と質に重点が置かれる。なお、rel="nofollow"
が付与されている発リンクは評価の対象とならない。Googleにはほかにも200以上の要素を用いて順位付けを行っている[31]が、それらの要素が与える影響はコンテンツや被リンクと比較すれば小さいものである。なお、これらの2つの要素が最重要視されているのは、コンテンツのないページが上位に表示されることを防ぐため、また被リンクがないとページを評価することができないためである[32]。
WebmasterWorldのフォーラムアドミニストレータによれば、被リンクは主にこれらの8つの要因によって評価される[33]。
- リンクしているサイトのトラスト
- リンクしているサイトのオーソリティ
- リンクが出現するページの場所
- リンクの入れ替わり
- リンクしているサイトの多様性
- アンカーテキストの自然な多様性
- キーワードが入ったリンクの自然な増加率
- リンクの数
Googleは、検索エンジン最適化を行う業者を利用することは時間の節約になる一方で、サイトの信用が損なわれるおそれもあるとしている。また、Googleは不審なメールを配信する業者に注意を払うよう呼び掛けており、業者を探す前にまず検索エンジンの仕組みについて理解しておくことを推奨している[34]。PageRankを販売する悪質なSEO業者を利用しペナルティを受け、業者リンクの削除を依頼しても応じなかったり、リンクの削除に法外な料金を請求したりする業者に遭遇した場合は、再審査リクエスト[注 3]のほかにリンク否認ツール[注 4]をあわせて利用することを呼び掛けている[35]。
ウェブマスター向けガイドライン
編集Googleは、ウェブマスター向けガイドラインと呼ばれる、ウェブページの登録やランク付けをスムーズに行わせるためのウェブページの作り方を示したガイドラインを公開している。このガイドラインでは、Googleがウェブページを検出・理解しやすくするために行うべきことや、検索エンジン最適化においてGoogleに認められない手法などが記されている。品質に関するガイドラインでは、基本方針として「ユーザーの利便性を第一に考える」ことが挙げられている[36]。
Googleは、ブラックハットSEOに分類される最適化のうちいくつかをこのウェブマスター向けガイドラインの品質に関するガイドラインの節で明示的に禁止しており、品質に関するガイドラインへの違反が確認された場合、ペナルティを与えられることがある。多くは掲載順位の低下で、場合によっては検索結果にまったく表示されなくなるGoogle八分を受けることもある[37]。また、Googleはブラックハットな手法について「サイトの評判を傷つける」と警告している[13]。
常時SSL化の推進
編集Googleはウェブサイトの常時SSL化を推進しており、常時SSL化されているウェブサイトを(条件付きで)検索結果で待遇するとしている[38]。また、HTTPSが用いられているページは優先的にGoogleのインデックスへ登録される[39]。
Googleによると、常時SSL化されているウェブサイトのインデックスを待遇する条件は次のとおりである[39]。
- セキュアでない依存関係が含まれていない。
- robots.txtによってクロールがブロックされていない。
- セキュアでない HTTP ページに(または HTTP ページを経由して)ユーザーをリダイレクトしていない。
- HTTP ページへの rel="canonical" リンクが含まれていない。
- noindex robots メタタグが含まれていない。
- 同一ホスト上の HTTP ページヘのリンクが含まれていない。
- サイトマップに HTTPS URL が掲載されている(または URL の HTTP バージョンが掲載されていない)。
- サーバーに有効な TLS 証明書がある。
GoogleはHTTPサイトを安全でないと明示する計画を実行しており、この一環として、Google ChromeではユーザーがHTTPサイトに機密情報を入力する際にユーザーに警告を出すようになっている[40]。
モバイルファーストインデックス
編集モバイルファーストインデックス(MFI)とは、モバイル向けに提供されるウェブページを主な評価の対象とするGoogleのランキングシステムのことで、2018年3月27日より開始[41]。従来はコンピュータ向けのページをクロールして検索結果に表示する各種情報を算出してきたが、以降は主にモバイル向けのページに基づいて検索結果が作成されるようになる。これは、モバイルから検索するユーザーが増加したためである[42][43]。
ページエクスペリエンス
編集ページエクスペリエンスとは、2020年にGoogleが発表したランキングシグナル。ウェブにおけるユーザー体験を快適にするための取り組みとして、Google検索のランキングにページエクスペリエンスシグナルを導入する計画[44]が発表された。これにより、サイト運営者はより高くGoogleから評価されるためにユーザー体験の向上に取り組み、ウェブ全体の改善が期待できる。
テクニック
編集脚注
編集出典
編集- ^ a b c d e f Scot Hacker. “Tutorial: Google Searches Per Day” (英語). SEO GIFTS. 2022年1月4日閲覧。
- ^ a b c “SEOとは”. コトバンク. 2017年10月17日閲覧。
- ^ “SEO(検索エンジン最適化)とは?初心者でもわかるSEOの基本”. アイオイクス株式会社. 2022年6月20日閲覧。
- ^ 山名早人、村田剛志「検索エンジン2005 -Webの道しるべ- :1.検索エンジンの概要」『情報処理』第46巻第9号、情報処理学会、2005年9月、981-987頁、ISSN 04478053、NAID 110002770410、2021年11月7日閲覧。
- ^ a b c 002.1.SEOってそもそも何!?―SEO対策の基本|初心者でもわかるSEOの考え方|月刊ソウサス
- ^ Google QDFアルゴリズムは間違いなく存在する | 海外SEO情報ブログ
- ^ 最新のコンテンツを上位表示するGoogleの「QDFアルゴリズム」はどんなサイトに対しても重要なのか? | 海外SEO情報ブログ
- ^ “India Webmaster Q&A: Search Quality Team answers your questions”. Google India Blog. (2013年8月15日) 2015年6月15日閲覧。
- ^ Kenichi Suzuki (2014年6月16日). “Googleのマット・カッツがあんな質問、こんな質問、どんな質問にも答える at #SMX Advanced 2014”. 2015年6月15日閲覧。
- ^ 元Google社員が検索アルゴリズムを暴露しないのはどうしてなのか? | 海外SEO情報ブログ
- ^ “Let’s Try to Find All 200 Parameters in Google Algorithm” (英語). Search Engine Journal (2009年12月18日). 2017年8月1日閲覧。
- ^ “グーグルの順位決定要因2014年版データ登場!”. Web担当者Forum. (2015年2月9日) 2015年6月15日閲覧。
- ^ a b Google. “検索エンジン最適化について学ぶ”. Search Console ヘルプ. 2017年7月29日閲覧。
- ^ “2.5 検索エンジン最適化について学ぶ”. Google. 2016年12月23日閲覧。
- ^ a b c d e f g “ウェブマスター向けガイドライン(品質に関するガイドライン)”. Google. 2016年12月21日閲覧。
- ^ a b “ペナルティとは”. ナイル株式会社. 2016年12月23日閲覧。
- ^ “ブラックハットSEOとホワイトハットSEO”. ナイル株式会社. 2016年12月21日閲覧。
- ^ “外部SEOにおけるバックリンクとホワイトハットSEOの関連性 - ゼロシード株式会社”. zeroxeed.co.jp. 2024年10月24日閲覧。
- ^ SPL (2023年8月27日). “SEOのためのキーワード調査”. SPL. 2023年9月7日閲覧。
- ^ “SEO対策における被リンクの獲得方法について”. SEO GEEKS. 2022年10月30日閲覧。
- ^ “被リンクの増やし方とは?良質な被リンクの獲得方法や事例を紹介”. Nobilista. 2022年7月14日閲覧。
- ^ “ブラックハットSEOとは 「ブラックハット」 (Black Hat SEO) ブラックハットエスイーオー”. Weblio. 2016年12月21日閲覧。
- ^ マット・カッツ (2012年3月15日). “Matt Cuttsさんのツイート”. Twitter. 2017年10月18日閲覧。
- ^ “週に数時間だけGoogleにスパムを行い月収500万円も稼いでいたスパマーが衝撃の実態を激白”. GIGAZINE (2016年2月24日). 2017年10月18日閲覧。
- ^ a b 隠しテキストと隠しリンク - Search Console ヘルプ
- ^ a b “キーワードの乱用 - Search Console ヘルプ”. Google. 2016年12月21日閲覧。
- ^ リンク プログラム - Search Console ヘルプ
- ^ スパム、有料リンク、マルウェアを報告する - Search Console ヘルプ
- ^ Search Console - 有料リンクを報告
- ^ サイトからの不自然なリンク - Search Console ヘルプ
- ^ Takeaki Kanaya (2013年7月17日). “選挙活動における検索エンジンを対象とした施策について Q&A編”. Google ウェブマスター向け公式ブログ. 2017年10月17日閲覧。
- ^ ディーポ (2017年4月11日). “【詳解レポ】ついに公式発言、Google検索順位2つの要因とは”. SEO Pack. 2017年7月29日閲覧。
- ^ tedster 訳:鈴木謙一 (2009年8月5日). “Googleバックリンクで重要な8つの要因”. 海外SEO情報ブログ. 2017年7月29日閲覧。
- ^ Google. “SEO が必要なケース”. Search Console ヘルプ. 2017年10月17日閲覧。
- ^ Google サーチ クオリティ チーム (2013年10月25日). “ガイドライン違反を繰り返す SEO 業者への対応について”. Google ウェブマスター向け公式ブログ. 2017年10月17日閲覧。
- ^ Google. “ウェブマスター向けガイドライン(品質に関するガイドライン)”. Search Console ヘルプ. 2017年7月29日閲覧。
- ^ 日経DP (2006年6月30日). “グーグル村上社長“Google八分”を語る”. ITpro. 2017年7月29日閲覧。
- ^ Zineb Ait Bahajji; Gary Illyes (2014年8月7日). “HTTPS をランキング シグナルに使用します”. Google ウェブマスター向け公式ブログ. 2017年10月17日閲覧。
- ^ a b Zineb Ait Bahajji, WTA, and the Google Security and Indexing teams (2015年12月18日). “HTTPS ページが優先的にインデックスに登録されるようになります”. Google ウェブマスター向け公式ブログ. 2017年10月17日閲覧。
- ^ Eiji Kitamura (2017年7月21日). “Chrome の HTTP 接続におけるセキュリティ強化に向けて”. Google ウェブマスター向け公式ブログ. 2017年10月17日閲覧。
- ^ “モバイル ファースト インデックスを開始します”. Google ウェブマスター向けブログ (2018年3月27日). 2018年11月23日閲覧。
- ^ Suzuki, Kenichi (2016年11月7日). “Google、モバイルファーストインデックスの導入予定を正式発表。スマホ向けページを検索の評価対象に。SEOへの影響は?”. 海外SEO情報ブログ. 2017年10月17日閲覧。
- ^ Doantam Phan (2016年11月5日). “モバイル ファースト インデックスに向けて”. Google ウェブマスター向けブログ. 2017年10月17日閲覧。
- ^ Google 検索セントラル ブログ「Google 検索へのページ エクスペリエンスの導入時期」
注釈
編集関連項目
編集- ニグリチュード・ウルトラマリン (en:Nigritude ultramarine)
- セラフィム・プルードルダック (en:Seraphim proudleduck)
- グーグル・コンサルタント(en:Google consultant)
- インターネットマーケティング
- SEOポイズニング
- ゴッゴル
- トップページ・ダウン・ペナルティー
外部リンク
編集- ウェブマスターツールヘルプ:検索エンジン最適化(SEO) - Google