せっかちさん向け記事第二弾。
むーさんからinboxの招待状は届くし、サイトリンク検索ボックスの拒否機能は付くしでよい日今日も翻訳を肴にお酒を飲むしか(・ω・)
てなわけで今日のWebmaster Central記事を翻訳しました。
要点は
■CSS/JavaScriptをブロックするな!インデックスの邪魔だし、結果的に順位下がっても知らんぞ!
■でも万能じゃないからプログレッシブ・エンハンスメントには準拠してね。
■あとFetch as Googleのレンダリングお勧め。問題点を発見しやすくなる。
■レンダリングが早いとUX向上・インデックスの効率化といいことずくめ。
では以下本文。
リンクは出来るだけ日本語にしたよ。ほめて
============================================================================
2014年10月27日 月曜日
初級者~上級者向け
先日、当社のインデックスシステムは「CSSやJavaScriptを有効にした一般的な現代のブラウザ」と同じような感じでウェブページをレンダリングしていると発表しました。
本日、当社はこの点を明示するために技術に関するガイドラインを更新しました。
新しいガイドラインでは、「レンダリングとインデックスを最適化するには、サイト内のJavaScript/CSS/画像ファイルなどに対するGooglebotのアクセスを許可する必要がある」旨を明言しています。
これによって、皆さんのウェブサイトは最適な形でレンダリング・インデックスされます。
robots.txtによってJavaScriptやCSSのクローリングをブロックすると当社のアルゴリズムによるレンダリングとインデックスに悪影響を及ぼし、結果として適正値以下の評価をされることもありえます。
インデックス最適化のための最新のアドバイス
かつて、GoogleのインデックスシステムはLynxのような古いテキストベースのブラウザのような物で、当社のウェブマスター向けガイドラインにもそのように記載していました。
現在では、現在では、ページのレンダリングに基づいたインデックスがあるため、「当社のインデックスシステムがテキストベースのブラウザのようなもの」というのは正しくありません。むしろ「現代のウェブブラウザ」と言ったほうが適切でしょう。
こうしたことを踏まえて、以下の点に留意してください。
コメントや質問がございましたら、ウェブマスターヘルプフォーラムまでお寄せください。
先日、当社のインデックスシステムは「CSSやJavaScriptを有効にした一般的な現代のブラウザ」と同じような感じでウェブページをレンダリングしていると発表しました。
本日、当社はこの点を明示するために技術に関するガイドラインを更新しました。
新しいガイドラインでは、「レンダリングとインデックスを最適化するには、サイト内のJavaScript/CSS/画像ファイルなどに対するGooglebotのアクセスを許可する必要がある」旨を明言しています。
これによって、皆さんのウェブサイトは最適な形でレンダリング・インデックスされます。
robots.txtによってJavaScriptやCSSのクローリングをブロックすると当社のアルゴリズムによるレンダリングとインデックスに悪影響を及ぼし、結果として適正値以下の評価をされることもありえます。
インデックス最適化のための最新のアドバイス
かつて、GoogleのインデックスシステムはLynxのような古いテキストベースのブラウザのような物で、当社のウェブマスター向けガイドラインにもそのように記載していました。
現在では、現在では、ページのレンダリングに基づいたインデックスがあるため、「当社のインデックスシステムがテキストベースのブラウザのようなもの」というのは正しくありません。むしろ「現代のウェブブラウザ」と言ったほうが適切でしょう。
こうしたことを踏まえて、以下の点に留意してください。
- 現代のウェブブラウザと同様、当社のレンダリングエンジンはウェブページに使われている全ての技術をサポートしているわけではありません。皆さんのウェブサイトがプログレッシブ・エンハンスメント(英語)の原則に準拠していることを確認してください。こうすることで、特定のウェブデザイン要素がサポートされていなくても、当社のシステムやより多くのブラウザが使用可能なコンテンツや基礎的な昨日を認識できるようになります。
- レンダリングが素早く出来ること。これはユーザーがコンテンツを見やすくなるだけでなく、インデックスの効率化にもつながります。page performance optimization(英語)のベストプラクティスの各項目、特に以下の点を推奨いたします。
- 不要なダウンロードの排除
- CSS/JavaScritファイル配信の最適化。ファイルの連結(統合)、連結ファイルの最小化、サーバー設定による圧縮(通常はgzip)の有効化等。
- サーバーがGooglebotに対するJavaScript・CSSの配信負荷に耐えられるか確認しておく。
テストとトラブルシューティング
当社はレンダリングによるインデックスを開始すると共に、Fetch as Googleの「取得してレンダリング」機能を更新し、当社のシステムがウェブページをどのようにレンダリングしているかを確認できるようにしました。同機能によって、「robots.txtによる不適切な制限」「Googlebotが辿れないリダイレクト」等のインデックスに関する問題点をいろいろ発見できます。コメントや質問がございましたら、ウェブマスターヘルプフォーラムまでお寄せください。