Adam Audette氏の『The SEO Guide to Information Architecture』の全訳を3回に分けてお届けしています。第3回目は、内部リンクとその他の最適化、そして結論の訳を掲載します。
- SEO視点からの情報アーキテクチャ・ガイド(1/3)
- SEO視点からの情報アーキテクチャ・ガイド(2/3)
- SEO視点からの情報アーキテクチャ・ガイド(3/3)
SEO視点からの情報アーキテクチャ・ガイド(3/3)
IA最適化: 内部リンク
適切に最適化された内部リンク戦略を生み出すことはひとつの芸術である。例としてGoogleのアルゴリズムを用いて、含まれている要素について考えてみよう。
- あらゆるサイトとページは一定量のページランクを持っている。どの程度の量かは分からない。我々は本当にはページランクが何なのかすら知らないのだ!
- 我々にはサイトやページごどのくらいのページを持っているかについて全く分からない。我々は推測するだけだ。
- 我々にはどのくらいページランクが変動するか分からない。
上で触れられたポイントよって、あなたが出来ることがいくつかある。いつものように、サイトでnofollowを採用する前にあなたが立ち入っているものを知ることに多大な注意を払うのだ。あなたはあなたが知っているよりも遥かに大きなダメージを与えることができるだろう。
基本的なリンク: 理想としては、ホームページから重要な全てのセクションにリンクすることが可能だ。メインとなるインデックス・ページはおそらくほとんどのページランクを保持しており、検索スパイダーにとって自然な出発点である。サイトの全ての重要なセクションにプレーン・テキストのリンクを貼ることは決定的に重要な意味を持つ。また、HTMLサイトマップをスパイダーのクローリング領域として追加し、それを直接ホームページ(やサイト全体)にリンクさせたい。
ディープ・リンク: 重要なサブ・カテゴリーや特定のページにホームページから、あるいはそれが無理なら、ホームページの直下で直接リンクする。
アンカーテキスト: アンカーテキストもまた内部リンクの問題である。関連するアンカーテキストをキーワードに最適化されたページへリンクするようにしよう。リンクテキストに、そして、それがリンクするページの中に、金を生むフレーズが欲しい。単純そうに聞こえるが、これがどんなに混乱しているかを知って驚くだろう。人々は「正しいアンカーテキストでこのページにリンクすれば、完成だ」と考えがちである。そして、ページはキーワードで最適化されなければならないことも忘れてしまう。おかしな冗談だ、分かっている。
基本的なnofollow: サイトが、プライバシーポリシーないしサービスの利用規約に対してサイト全体からリンクを行っているのならば、内部リンクに対してrel=”nofollow”属性を加えることを検討しよう。また、ショッピング・カートやアカウント・プロフィールへのリンクのようなログインが必要なページにnofollowすることもできる。100以上のリンクを持つページには、ページから流れ出すページランクの総量を集中させるためにnofollowでスカルプティングを行いたい。Dan Thiesがページランク・スカルプティングに関する素晴らしい説明を行っている。
サイト上のそれぞれのリンクを、次のページに一定のページランクを押し出す調整弁だと考えるなら、nofollowが簡単にいくつかの調整弁を閉めさせる。このことが残存するリンクを通じて、流れるページランクの総量を増やす。
リンクの閾値: 150以上のリンクを持つ全てのページはユーザビリティと内部リンクの点で無駄である。それゆえ、何千ページもあるようなら、サイトマップを複数に分ける(注: サブドメイン用いる)。一般的に、ページ上のリンクが少なくなるにつれ、より多くのページランクが存在するリンクに利用できるようになる。ホームページ関してもこのことを頭に入れておこう。というのは、それが費されるページランクのほとんどを持っていることが多いし、それを公開中の全てのページへのリンクに用いる傾向があるからだ。
高度なボット・ハーディング: 最初に警告しておく。何をしているのか分からないまま、大規模なnofollowスカルプティングを実行しないこと。Thiesはこのテクニックを三段階プッシュと呼んでいる。その戦略とは次の一般的な方法で、より多くのページランクをより深いページへと流すことだ。
- 1. サイト全体にあるリンクはnofollowする。これは事実上、(プライバシー・ポリシーやTOS、お問い合わせページ等の)付加的な(overhead)ページが、売上につなげる役割を持たないにも関わらず多くのリンクを得るようなサイトで、そうしたリンクが内部のページランクを貪欲に引きこもうとするのを解除するものだ。それでもこれらをインデックスさせたいがゆえに、それらをメタ・タグやrobots.txtで除外するのではなく、代わりに、nofollowするのだ。
- 2. (他の2層目のページとの)相互リンクや(サイトの階層上、上位の)ホームページとのリンクを行う、2層目のページ(我々がセクションやカテゴリーとして議論したもの)にnofollowを加える。これが3層目のより深いページに、より多くのページランクを与える。
- 3. 2層目のページへのリンクに対してリンクする3層目のページは、それらリンクをnofollowさせる。これは、3層目を伝い、より多くのページランクを与える。
Halfdeckはこの方法を微妙に異なる形で適用し、またThiesぁらいくつかの有効な説明の引用を行っている。Halfdeckはまた、2層目・3層目に関するペア・リンクや円環リンクのような高度なリンク戦略を説明している。
この方法の背後にある基本的な考え方は、ホームページからサイトの深い階層にあるページへ、より多くのページランクを流し込ませるというものである。より多くのページランクが与えられることで、これら深い階層にあるページはGoolge(この技術が特にターゲットにしているエンジン)にインデックスされることだろうし、したがって、メインインデックスに、よりいっそう売り上げにつながるページになるだろう。
Halfdeckのページランクボット・ツールを活用したい。これは、ページランク情報を診断する近道を与えてくれ、nofollowをスマートに活用させてくれる。このツールの使い方に関する詳細情報はここだ。インストールにいくらか基本的なギークの助けが必要になるだろうが、その価値はあるだろう!
最後に、このテクニックについて、話題にされるのを聞くことになる、いくつかの他の用語といえば、Bruce Clayのチームの【サイロイング(siloing)】と、Dan Thiesの【ダイナミック・リンク(dynamic linking)】である。来週辺りのあなたの読み物にしてはどうだろう。
一般的に、内部のページランクを操作するよりも、サイトで行うべきはるかに重要なステップがある。ほとんどのサイトは、付加的ページに関する基本的なnofollow戦略を実行することで利益を得るだろうが、それは行う必要がある限りにおいて、である。「三段階プッシュ」のようなテクニックはインデックス(そしてランキング)の目標がほぼ達成されたとき、あるいは深い階層にあるページを指す被リンクが少ない場合や、ルートドメインでのページランクにバランスがとれていない場合の高度なSEOのために置いておくべきものである。概して、サイトの深い階層に素晴らしいコンテンツを追加して、そこでページランクを構築する方がはるかに重要(で効果的)である
IA最適化: 最後の考慮事項
以下は私がまだ言及していない雑多なアドバイスを集めたものだ。
URLに含まれるキーワード: フォルダのパスやファイルネームでキーワードを、そしてそれらを分割するのにハイフンを使おう。他の全ての要素が等しい場合に、URLに含まれる追加的でセマンティックな価値を持つことで関連性のスコアを獲得できる。
XMLサイトマップ: XMLサイトマップを使うことを検討するかもしれない。私は次の場合を除いて主だった利点を見いだせていない。それはサイトを移転した時や、相当な量(25,000以上)のページをクロールさせたい時だ(が、必ずしもインデックスさせる必要がないなら、そこには何の利点もないように思われる。robots.txtに指示してサイトマップを加えることができる。XML構造がきれいでURLのエラーを含んでいないこと、あるいはクロールさせたくないページを含んでいないことを確認しよう。
404エラー・ページ: カスタムの404エラー・ページはサイトで訪問者に自信を与え、信頼を与え、彼らがサイトに留まる助けになる。そうするために、次のようないくつものベスト・プラクティスがある。
- 選択を最小限に留める。エラーページをシンプルなランディング・ページのように扱い、選択肢でユーザーを圧倒しないこと。彼らは迷う、彼らは、導線に戻るのに最小限に抑えられたフィードバックを必要とするのだ。
- サイトマップやサイトの主だったカテゴリーに対し、明確で行動を喚起する(call-to-action)リンクを設置すること
- 404ページに検索ボックスを置くこと
- サーバーのヘッダコードが正しく404を返すか確認する
- フィードバックのためにどのようなページを彼らが見つけようとしているかを尋ね検討する。多くの回答者を得ることはないだろうが、何人かは知らせてくるだろう。その情報は存在しないページをリダイレクトするのに、あるいはサイト内の他のエラーを見つけるのに利用できる。
コンテンツを除外する: robots.txtを使ってロボットからサイトのコンテンツやセクションを除外する。同時に、特定のページを除外するために、ヘッダセクションにmeta name=”robots” content=”noindex, nofollow”を追加することもできる。同様に他にも様々な組み合わせがある。一般にサイトの管理セクションが全てのボットから除外され、コンテンツ・セクションをスパイダリング可能にしておきたい。robots.txtで/imagesのディレクトリを除外することが共通して実践されたが、私は普通そうすることを勧めない。Googleの画像検索はサイトへのかなりのトラフィックを送る能力を得たし、ブレンド検索で、画像はウェブ検索結果に表示されるようにすらなっている。
ODPを無効に: もし幸運にも、DMOZにリスティングされたなら、Google、MSNそしてYahoo!にODPの一覧にあるタイトルとディスクリプションの要約を無視させるために、the meta name=”robots” content=”noodp” tagを加えたい。今日3つの検索エンジンは何れも、この件に関しては適切に振舞うはずだ。Googleは周知のように、様々なタイトルとスニペットをODAのエントリであらゆる組み合わせて用いる。それゆえに、これはサイトがGoogleの検索結果に最適化されているかどうかを理解するひとつの重要なステップになりうる。
その他のメタタグ: meta name=”robots” content=”Index, Follow”のような無関係なすべてのメタ・タグを取り除く。それは無駄である。
入ってくるジュースの維持: キーワードに最適化されたページはそれらがリンクテキストでターゲットにしているキーワードを用いて決してリンクしないこと。
結論: どのようにファインダビリティを組み込むか
この記事はSEO視点から見た情報アーキテクチャに関するものである。それは、たいてい、(目的に関して)ユーザビリティとデザインのコンセプトを含めない。ここで一覧にされた戦略を用いることはサイトが素早くクロールされるのを促進する。そして検索エンジンに、何のサイトであるかをより明確に理解させる。(適切に取り扱われた外部要素を備えることで)最終的に、検索インデックスにおけるページ数と、上位表示するページを増やすことになるだろう。
それで、私が記事の最初に触れたファインダビリティはどうなのだろうか(分かっている、トップ辺りだ)。つまり、私はファインダビリティが、商業目的であるよりも、SERPsにおけるユーザー中心のプロモーションと関連性のあるコンテンツが最も重要な焦点であるような場所で重要であると信じている。ユーザー中心の関連性にマーケティングの目標を結び付けられる企業は、確かな強みを得るだろう。挑戦(と上昇)とは、そのプロセスにSEOのアドバイスをもたらし、ユーザビリティやブランディング、コンバージョン目標、デザインとそれらのバランスをとることである。それは素晴らしいほどに複雑だが、可能なことである。
関連情報
Adam Audette氏はAudetteMedia社のプレジデントであり、著名なSEOストラテジストでもあります。ザッポスやマイクロソフト、インテルといった大企業で、マーケティングやコミュニティ戦略、SEOなどを手がけてこられました。氏の著作や記事に関する情報はこちらの「Adam Audette: Founder of AudetteMedia」で取得出来ますし、Twitterでフォローすることも可能です。
記事インデックス
- SEO視点からの情報アーキテクチャ・ガイド(1/3)
- SEO視点からの情報アーキテクチャ・ガイド(2/3)
- SEO視点からの情報アーキテクチャ・ガイド(3/3)