2006年から毎年発表しております検索エンジンマーケティング業界10大ニュースですが、今年も発表させて頂きました。こちらのニュースを元に2013年のSEO関連の話題を振り返ってみたいと思います。
口語調の検索クエリにも対応 – Google 、ハミングバード導入
『物事の本質をよく理解せず、明後日の方向の分析記事ばかりが大量に出てきた』話題として非常に滑稽だったのが、このGoogleハミングバード(Hummingbird)です。
ハミングバードは、利用者が入力した検索クエリ文字列から、言い換え(パラフレーズ)可能、かつ、元々入力されたクエリの意味に合致するクエリを生成して関連する情報を見つけ出すことで、検索者の意図(=欲しかったモノゴト)に沿った検索結果を提示する、という技術です。基本的に、サイト運営者が何かすべきことはありません。
いや、正確にいえば「ハミングバードが引き金となった、特別な対応・対策」は、ありません。純粋な技術論を簡単に述べると、例えば「利用者が疑問に思っていること」を文章とすること、Q&Aサイトやユーザーレビュー(クチコミ)掲載ページのような「質問と回答、感想が集積されたサイト」は、ハミングバード導入以後、検索流入が増えていることでしょう。しかし、「利用者が疑問に思っていることをコンテンツとする」ことは、別にハミングバードの存在有無にかかわらず行うべきことですよね。ユーザーレビューも、独自のコンテンツとして、あるいは利用者の購買意思決定を支援する上で是非とも提供を検討すべきコンテンツであって、ハミングバードが出てきたから行わなければならない対応では断固としてありません。
あるいは、「同じモノゴトを、様々な表現で言い換える」ことも、"ハミングバード対策"といえるかもしれません。しかし、ハミングバード関係なしに、来訪者に情報をわかりやすく伝える上で、様々な表現を用いて伝えることは必要なライティングのテクニックでしょう。これまた、ハミングバードは関係ありません。
このように、巷で叫ばれている"ハミングバード対策"のほとんどが、その存在にかかわらず「SEOする上で、やった方がよいこと、基本事項」なのです。Googleの新技術誕生という言葉に踊らされている人が多いこの話題ですが、(しつこく何度も繰り返しますが)ハミングバードのために行わなければいけない対策は特にありません。
cf.
Googleの検索ランキングアルゴリズムは本当にブラックボックスなのか
[解説] Google新アルゴリズム「ハミングバード」導入で検索がどう変わったの?
Google 、全てのユーザーに検索のSSL暗号化を適用
検索利用者のプライバシー保護を理由に、Googleアカウントにログインしていた利用者のみを対象としていた検索のSSL暗号化。この暗号化が、Googleの全ての検索利用者に拡大されることになりました。
通常、ある検索利用者が検索エンジンを利用してサイトを訪問する時、そのサイト運営者は、利用者がどんな検索キーワードを使ってサイトへ来訪したのかを知ることができます(参照キーワード、Keyword referrer)。しかし、Google検索の暗号化により、今後、オーガニック検索を経由※して来訪してくる全ユーザーの参照キーワードを知ることが出来なくなります。
※ オーガニック検索(自然検索)の参照キーワードが提供されなくなる。アドワーズ広告は対象外で、引き続きキーワード情報を取得可能
検索利用者にとって特段影響のない、この検索の暗号化は、サイト運営者にとっては非常に大きな影響を及ぼすことになります。参照キーワード情報は、検索利用者のニーズを探り、サイトのコンテンツを改善する上で貴重なマーケティング情報だったからです。2011年より既に一部の(Googleアカウントにログインしている検索利用者や、一部のブラウザを利用している検索利用者の)情報は取得できませんでしたが、SSL暗号化対象が全利用者になったことで、Googleからの来訪者のキーワード情報がわからなくなりました。
Yahoo! JAPAN やその他 Google検索パートナーサイトにおいては暗号化はされませんが、Googleオーガニック検索のキーワード情報を参照できなくなるのはサイト運営者にとっては頭の痛いことです。
失われたものを欲しいといっていても始まりませんから、今後は、「その情報はないもの」として考えていかなければなりません。従来は、取得できた参照キーワード情報から、利用者の意図を探ってきました。「キーワードのレベル」で考えてきました。今後は、ウェブ解析の、検索経由で最初に閲覧されたページや、閲覧ページ遷移などを解析したり、検索キーワード数調査ツールなどを用いて取得したデータを照らし合わせて、「コンテンツのレベルで考える」、-- つまり、移動遷移などから、どんなコンテンツを提示することで利用者は満足するだろうか --という視点から、必要なキーワードを洗い出して、掲載する情報を考えるというアプローチが必要になってくるでしょう。
ただ、「検索利用者が欲しいコンテンツ、求めているコンテンツとは何か?」を考えるのは、検索の背景や意図を探るという、検索エンジンマーケティングの基本的でかつ極めて本質的な部分が改めて問われるという意味でもあります。その意味では、「本来あるべき方向に進む」良い機会になるのではないでしょうか。
cf.
米Google、検索のSSL暗号化を拡大 全ユーザーが対象に
Google 、技術的な不備を抱えるスマートフォン対応サイトの順位下降を発表
ここ数年、検索サービス提供会社としてスマートフォン時代にどのように対応するのが最適解なのかを模索してきた Google ですが、「ユーザー体験」というシグナルを持って、スマホサイトの検索順位を調整するという動きに出ました。スマホユーザーにとって対象サイトの閲覧に支障が生じる場合、優れた閲覧体験が期待できないと判断する場合に、スマホサイトの検索順位を下方修正するという対応となります。
来年以降の焦点は、Googleとしてデザイン論にどこまで踏み込んでくるのかという点です。「レスポンシブウェブデザイン論争」で、Googleの主張とマーケター側の主張が真っ向から衝突しており、個人的には"Googleはデザインに口を出すべきじゃない"と思います。Googleが口を出すのは、「レスポンシブウェブデザインだから上位表示できるわけじゃない」までで良いのではないでしょうか。それ以上に口を挟むのであれば、検索技術の観点からのみでなく、ユーザー体験の観点から合理的な理由を提示しなければいけないのではないでしょうか。
cf.
解説:Googleが問題視する「設定が不適切なスマホ向けサイト」とは
「検索2強」にチャレンジしたNAVER、百度が相次ぎ事業撤退・縮小
ライコスネタをあえて突っ込んでみたこのピックアップですが、NAVER、百度とこのGoogle/Yahoo! JAPAN の2強がほぼ寡占する日本の検索市場に乗り込んできた期待の2社が撤退・縮小を決めてしまいました。百度は中国最大手、NAVERは韓国最大手ということで、がんばって欲しかったところですが…。Bing はどこ行ったのでしょうか? Windows 8.1 でBing検索との連携も増えてきたところですし、来年にはそろそろ再稼働を期待したいところです。ケータイ検索でもYICHAが終了していました。
1ヶ月に1回の「謎の」パンダアップデート
これはアイレップから発表したSEM10大ニュースには入れませんでした。影響が不明だからです。パンダアップデートが通常の検索アルゴリズムの中に統合され、常時・継続的にデータ更新・適用が行われるようになりました。以前はMatt Cutts氏が定期発表していたパンダアップデートのデータ更新ですが、2013年3月を持って告知は中止となりました。しかし1ヶ月に1回程度、更新は現在も行われています。
もう1つ、10大ニュースには入れなかった理由があります。実は2011年2月の導入以後、日本国内のサイトにおいて「この検索順位下落はおそらくパンダアップデートが主要因なのだろう」と推定できる事例を見たことがありません。「一定以上の大きな検索順位のぶれ幅がある」という前提でデータを見ているので、もしも実際の変動幅が小さいのであれば私が気づかずに見落としている可能性があります。ただ、パンダアップデートのデータ更新時期、検索順位の変動、対象サイトの状況などのデータを総合的に判断して、パンダアップデートが直接的な下落要因であろうと確信を持てる事例があまりありません。海外に目を向けると更新時期と順位下落時期と現象がぴったり合うモノがあるのですが…日本では少し傾向が違うのでしょうか。
cf.
米About.com、Googleパンダアップデートの影響受ける - ページビュー減少
米Google、パンダアップデートを通常のアルゴリズム更新に統合へ
拍子抜けだったペンギンアップデート 2.0
マットカッツ氏が今年最大のアップデート、影響も大きいと事前予告していたわりには大した影響がなかったペンギンアップデート2.0。内容も、その前(2012年)のペンギンアップデート1.0と大差ありませんでした。過剰相互リンクやワードサラダ、空っぽのサイトからリンクを張るといった、古典的なウェブスパムを無効にする内容のアップデートでした。2014年はペンギンアップデート3.0でしょうか。
ペンギンとは関係ありませんが、スパムが多い検索クエリへの対策も6月に明らかになっていました。
見せしめ的に公表された、リンクネットワークの排除
マットカッツ氏は数多くのリンクネットワークを名指しして、Googleが対策を実施済みであることをツイッターでアピールしていました。Googleに見つからないようにリンクネットワークを作っても、そんな不正操作なリンクは簡単に発見できるんだぞ(だからやっても無駄だ)ということを誇示したかったのでしょう。一方で、「リンクネットワークを使うことが不正なことだとは思わない、順位不正操作目的のリンクが悪だとは思わない」という倫理観の欠けたSEO従事者が全滅しない限り、いたちごっとは続くでしょう。
Google Authorship、AuthorRank 著者情報をどう扱うか?
Eric Schmidt氏が書籍の中で『著者確認されたオンラインプロフィールと結びつけられた情報は、著者確認なしのコンテンツよりも検索結果の上位に表示する』と述べていたり、マットカッツ氏が『コンテンツの著者を把握することで検索はさらに優れたものになる』と述べたり、Google Authorship導入による効用が語られたりと、改めてGoogle AuthorshipやAuthorRank(オーサーランク)が注目された年でした。コンテンツの信頼性を確認する上では有望なアプローチであり、まだGoogleもその導入や実装の可能性を検討している段階ですが、来年あたりに本格化するのでしょうか。ただ、Google+がもう少し活性化されないと厳しいかもしれません。とりあえず、ニュースメディアを運営されているサイトなどは積極的に対応してもいいと思います。米国ではいくつかの大手メディアが全編集者にGoogle+を導入させてGoogle Authorshipによる検索トラフィック増の恩恵を受けている事例が出てきています。
cf.
Google 主な検索アルゴリズム/検索技術 変更の歴史 7+1選
Google Authorshipマークアップの果たす役割と使い方 - (Maile Ohye, Google) SMX Advanced 2013
手動判定の有無を確認可能に - 手動対策ビューア導入
倫理観のかけらもないブラックハットSEOを行っている皆様が特に恩恵を受けたであろう新機能の1つが手動対策ビューアでしょうか。Googleガイドライン違反として検索順位の調整(=手動対策, manual action)が行われた場合、ウェブマスターツールの管理画面で自分のサイトが手動対策されたかどうかを確認できます。
Googleから手動対策を受けたら修正して、まだ悪質なことを行えばいいと考えていると、何度も違反を繰り返すサイトには厳しい処罰が下されることもありますのでご注意下さい。
Google、低品質なディレクトリ検索サイトに警告
NTT新着情報やBT LookSmart、CSJディレクトリ、Infoseekディレクトリなどインターネット検索黎明期からずっとディレクトリを見てきた私にとっては非常に関心を持ったものの、あまり本件をブログ等で書く人を見かけなかったなという感想を持ったのが、この低品質なディレクトリ問題です。
一度だけ(2008~2009年?)、社内で「こういう(審査登録型ディレクトリ)事業をうち(の会社)はやらないの?」という発言を耳にしたのですが、私は「ビジネスとして短命だから」と一蹴した記憶があります。以前、『SEOは高い倫理観が問われる』という話を書きましたが、SEOというのは手段を問わずに検索順位を上げる(その手助けをする)のはとっても簡単なのですよ。でも、それを実践してよいかどうか、誰かに推奨してよいかは別問題なんです。「検索エンジン」「検索利用者」「サイト運営者」この3者のいずれもメリットがある形での検索エンジン最適化ができるなら、それが最も望ましい。大企業が平気でスパムをしていても、それが見つかればデジタルの信頼や評判に大きな傷がつくことでしょう。アフィリエイターは別に失うものがない、リスクを自分で背負えるからいいかもしれませんが、企業はそうはいかないし、そういう認識を持って欲しい。効果があるからといって何をしてもいいわけではないのです。
話が逸れましたが、「短命だから」と述べた通り、遅かれ早かれ、この有料審査登録型ディレクトリは、SEO的に意味がなくなる日は訪れることになっていたのです。それが今年、Googleが厳しく対処したことで現実になったのです。ただ、「一定の手続きさえ通過すれば、自分のサイトに向けて一定数のリンクを獲得できる手段」として人気を博してきた手法でもありましたから、本件によって数多くの企業が影響を受けたに違いありません。