このページの本文へ

2016年 SEO 展望 自分にとっての正しいSEOの戦略と指針を選択する

2016年01月04日 14時23分更新

記事提供:SEMリサーチ

  • この記事をはてなブックマークに追加
本文印刷

年明けですので、俯瞰的なお話をしたいと思います。

私が昨年、SEO 関連の業務でとても苦労したことの1つが「講演内容の対象オーディエンス設定とレベル設定」です。同じウェブ担当者(あるいはSEO担当者)ながら様々な規模・ビジネスの Webサイトを担当されている方々に対して、共通の SEO の推進方法や戦略・施策、手法を伝えることが近年、非常に難しくなっていると感じています。

2015年10月に開催された「In-house SEO Meetup powered by CSS Nite」は、一応、SEO の上級者を想定したイベントだったのですが、私が基調講演の内容で頭を抱えたのは「SEO の上級者(Advanced)の""上級者""ってどういうレベル?」という点でした。また、8月にはSEO の講演を海外で英語で行ったことがあるのですが、これまたレベル感がわからず苦労しました。

これは私の業界歴が長すぎて、もはや基本と応用の区別がつかない※ことにも問題があるのですが、それ以上に、(1) 受講者が担当している Webサイトのモデルや性質によって、個々の SEO施策の優先順位やインパクトが大きく異なるようになってきた、(2) Webサイトによってアプローチが全然違うので、受講者全体にとって”有効な”SEOの話題を提供することが容易ではない、という2つの背景が絡んでいるのかなと思います。

※ みなさんが「新しいSEO の話題」と思っていることの7割位は、過去のどこか(特に2003~2005年)で語られていると思います。結局のところインターネット検索技術というのは「ユーザーが求めている情報をいかに効率的に発見できるようにするか」を実現しているにすぎないので、先人たちが歴史のどこかで議論し、結論を出しているのです

昔であれば、Hilltopアルゴリズムの仕組みの話は上級、タイトルとメタ要素は初級、サイト内部のリンク設計最適化は中級、etc. といった具合に、話の項目ごとにあるレベル設定もできましたし、どの話題もたいていのSEO担当者にとっては必須(must)な話題で構成することができたと思います。でも、2016年現在これらの話は全部、基本中の基本ですよね。上級って何なんでしょう?

言い換えるなら、SEO担当者は、情報設計(IA)やサイト内部リンク設計、タイトルやメタ要素をはじめとするマークアップといったことは基本事項として取り組むことが必須である一方、それらの施策だけでは成果を出すためには不十分であることも認識したうえで、「次に何をしなければいけないのか」を適切に判断しなければならない、ということではないでしょうか。

という前置きをしたうえで、本編。


あらゆるWebサイトに共通する効果的な SEO は存在しない?

昨年末に投稿した記事「2016年 SEO 予測と展望 テクニカルなSEOとユーザ体験の関係の歴史」の最後に少し触れていますが、「『自分が担当する Webサイトにとって』の最善のSEO施策・方針」を正しく選択できなければ、SEO を推進することは難しくなってきています。

たとえば10年前(2006年前後)であれば、規模・ビジネスモデル・業種業態を問わず、「順位を上昇させたいキーワードを含む外部リンクを増やせ」という共通のひな形施策に基づいて SEO を進めていけば、ある程度の目的は達成できました。だから当時、いわゆる順位成果に基づく成功報酬型のSEOサービスを提供する事業者が急激に増加していたわけです。

しかし現在(2015-2016年)は、Webサイトの規模や企業の組織体制、ビジネスモデル、既存のデジタル資産、デジタルマーケティングの活動状況など、さまざまな変数を考慮したうえで、「自分が担当する Webサイトの場合は、SEO の何を取り組まなければいけないのか」を考えなければいけなくなっています。

こうした変化が起きた要因は、簡潔に言えば「Googleの検索アルゴリズムが進化したから」なのですが、SEO 業務に携わる方向けに概念化するならば「Webサイトの価値を判断するために利用されるシグナルの数量と質(≒精緻な分析)が進化し、個々の Webサイト固有の価値が推し量られるようになってきた、アルゴリズムを駆使して人間的な評価ができるようになってきた」ということでしょうか。つまり、キュレーションやバイラルメディアと、企業のブランドサイトは(同じウェブサイトながら)もはや全く別物の存在なのだから、それぞれの SEO (オンラインでの評価を高めるための手法)は違ってしかるべきなのです。


SEO的な分析・原因特定も一筋縄ではいかない

昔、インプレスが発行していた月刊誌・インターネットマガジンで、「勝手に診断 企業サイトのSEO」という連載を担当していました。毎月、業界を1つ選択して、主要プレーヤー4~5社を選んで勝手に SEO 的な診断や改善についてのアドバイスをするという記事を書いていました。この記事を仕上げるのにおおよそ3日間、つまり3日で5社(5サイト)の SEO的な分析を完了させていることになります。

同じころ、SEO の相談を受けて、分析資料とSEOの提案書を作成するのも、早ければ5分、どんなに時間がかかっても1日かければそれなりのものは完成させていました。

今現在、同じ時間で同じ作業をすることは難しいです。相談内容によりピンキリなので、10分でささっと終わるものもありますが、何日も時間をかけないと納得いく分析結果が出せないWebサイトが増えています。

つまり、10年前なら可視化されていた欠如している、あるいは障害となっている技術的要素を特定して、それを取り除くためには何をすればいいのかを考えればよかったのですが、今現在はそもそも「欠如しているもの」や「障害となっているもの」が把握しづらい状況であり、けれどもそれを掴めなければ適切な方針も立てられない~~ このあたりが今日の SEO 業務における難しさなのかなと思います。


最適な SEO の方法は、自分で見つけるしかない

SEO の神様が簡潔に述べているように「価値を作ってそれを検索エンジンに認識させる」しかないのですが、その価値の作り方は、10個の Webサイトがあれば10通りの方法があります。インハウスの SEO担当者は、それを自分たちで見つけるか、第三者のアドバイスに耳を傾けるか、何らかの方法で見つけ出していかなければなりません。よほど Google が時代に逆行的な愚かなアルゴリズムを導入でもしない限り、この流れは今年に限らず、来年以降も続いていくと予想されます。

間違ってもやってはいけないことは「業界の話題に安易に従わないこと」です。たとえば2016年も、「コンテンツマーケティング」、つまり SEO の評価を上げるためにコンテンツに取り組みましょうといったことが声高々に叫ばれることでしょう。しかし、業界としてコンテンツに注目が集まっていることと、あなたの Webサイトの評価を上げる(検索順位を改善する)のにコンテンツが必要か否かはまったく別のお話です。

Google のコンテンツ品質評価とはすなわち、「コンテンツを通じた検索とウェブのユーザ体験」を評価しているのです。あるインテントを持った集団がそのコンテンツ(ウェブ)にアクセスをすること、そのコンテンツを閲覧した人たちが得られる価値、それをアルゴリズムで評価して自然検索順位に反映しようとしています。つまり、「文章のつまったページを用意して SEO」といった勘違いコンテンツSEO で SEO を推進している気になっている Webサイトの順位が一向に改善されないのはもちろんのこと、そもそも順位が停滞している原因がコンテンツの価値(≒ユーザ体験の欠如)ではなく、別の要因であるにもかかわらず「今の Google対策はコンテンツと聞いているのでコンテンツ増やしましょう」などといった施策を行うのは、右足をねん挫したのに風邪薬を飲んで治療するようなものです。

特に「コンテンツSEO」という言葉を使う人は、SEO の課題を何でもコンテンツで解決しようと勘違いしていないでしょうか。私は社内外含めてコンテンツSEO という言葉を基本的に使わないのですが、それは今日の SEO の課題がコンテンツで解決できると捉えてほしくないので使いません。ある時期にソーシャルSEOという言葉が生まれた時に大量の Twitterアカウントと bot を駆使して24時間同じキーワードとリンクをツイートしつづける施策を始めてしまった某大手企業の事例があるように、発信側はそういうつもりがなくても、その情報を受信する側は SEO=コンテンツ対策と解釈してしまいがちなのです。

Google が特にスマホでの検索体験を高めるために、検索結果にリンクという回答候補を表示するのではなく、意図に沿った回答そのもの(アンサー)を直接表示する傾向が強くなってきていますが、これに絡んでセマンティックの重要性が指摘されることが多々あります。しかし、これまた(いわゆるダイレクトアンサーの)重要性が高まることと、あなたのサイトにとってダイレクトアンサーへの対応が重要とは限らないのです。専門的な解説を提供しているサイトや用語集サイトであれば、フィーチャードスニペットに対応※するための技術的な施策を行う価値があるかもしれません。けれどもブランドサイトやEC・通販サイトであれば、基本的に関係のないお話でしょう。

※ フィーチャードスニペットは、ある検索クエリに対して関連性の高い上位1~10位のウェブページの中から、解説にふさわしいウェブページを選択、その情報を自動抽出して表示する仕組みなので、テクニカルに最適化することができます


方針を見極めるための3つの視点

最後に参考までに、私が Webサイトの分析をする時に、日常的に使っているフレームワークを簡単に紹介します。

  1. 超基本的事項の確認(タイトル要素、canonical、リンクの張り方など)
  2. 情報構造設計の確認(ナビゲーション、トピック単位のグルーピング)
  3. コンテンツおよびその構成要素の確認
  4. ユーザ体験
  5. 技術的障害またはチューニング
  6. サードパーティーデータの参照

基本的に6つの視点から見るのですが、コーポレートサイトやブランドサイトであれば 1. と 2. の観点から分析を始めます。かつて成果報酬型SEOが盛んだった時代の比較的人気キーワードを扱うサイトであれば、6. のサードパーティーのデータ参照から始めます。最近のキュレーションメディアやバイラルメディアであれば、3.4. のコンテンツ系と 2. の情報構造設計に着目していきます。通販サイトであれば、5. の技術的な問題や 2. の情報設計に問題がありそうだとあたりをつけていきます。

つまり、Webサイトの性質やそれの開発・構築に携わっている人々の情報をもとに、ある程度「SEO で問題になっている要素」を絞り込んでしまいます。国内大手企業のキャンペーンサイトやオウンドメディアであれば基本的なことができていないケースが多い一方、ウェブサービス主体の企業であれば基本事項はまず間違いなく要件満たしていることが多いからです。人気キーワードでサードパーティーのデータ(Open Site Explorer や ahref など)を見に行くのは、スパム系をまず疑うからです。「過去に外部リンクに手を出していたけれども今はやっていない」という自己申告を受けても、実は外部業者が勝手にやっていたり、担当者自身の頭の中ではホワイトかもしれませんが世間的にはブラックな手法を勝手に行っていたりするケースが意外と多いからです。

これは多種多様な Webサイトを迅速に、的確に分析するためのものですが、インハウスSEO担当者は(基本的に自社のサイトの面倒を見るだけですから)その担当する Webサイトの特性と性質を一度把握すれば済みます。特性と性質の話はまた別の記事で触れます。


Web Professionalトップへ

WebProfessional 新着記事