Manual:検索エンジン最適化
検索エンジン最適化(SEO= Search engine optimization)技術は全般に、検索エンジンの「自然な」または無償の(「オーガニックな」)検索結果に対してウィキのページの可視性とランキングを向上させようと目指しています。 検索エンジンの結果ページ(SERP=search engine results page) で特定のページが上位に表示されるほど、トラフィックが多くなる傾向が見られます。 多くのウェブサイトにとって、これはトラフィックの出所として最大であり、そのため SEO は訪問者を増やす上で重要な要素です。 Google は今のところ最大の検索エンジンなので[1]、ウェブサイトの管理者はランクの向上に力を注ぐ必要があるのは通常、Google です。 Googleは年々アルゴリズムを巧みに調整し(それにより順位を判定)、質の高いコンテンツとユーザーエクスペリエンス(UX)に焦点を当ててきました。 したがって最も重要なことは独自の高品質のコンテンツを人間 の訪問者向けに設計し、Google のクローラーやその他の"ロボット" に捉われないことです。[2]
短縮URLを有効にする
人も検索エンジンも書き下し型のURLを好みます。[3] この目的にはManual:Short URLs を採用できます。 For example, this changes
https://example.com/index.php?title=Water
into
https://example.com/wiki/Water
正規のリンクを有効に
特定のページが複数の URL を備えており、どれも見た目の表示は基本的に同じだとします。 Google ではこれをコンテンツの重複だと解釈して順位付けには適していないし[4]、本来なら短縮 URL のはずが SERP に表示されてしまう URL 類を生んでしまいます。 防止策はLocalSettings.php の$wgEnableCanonicalServerLink を有効にします。
検索エンジンはこうすると
https://example.com/index.php?title=Water&mobileaction=toggle_view_desktop
(短縮URLが有効の場合でもリンク可能)が
https://example.com/wiki/Water
と同じだと理解でき、SERPに短い(正規の)URLを表示します。
これを有効にするには、変数を LocalSettings.phpに追加します。
$wgEnableCanonicalServerLink = true;
当該する場合、$wgMainPageIsDomainRoot を $ に 設定する方法も検討しましょう。
robots.txt ファイルを作成する
検索エンジンのクロウラーが読みに行く特殊ファイル robots.txt があり、サイトのオーナーはウェブサイトで特定のページまたは部分をクロウラーに開示するか禁じるか抑制できます。 robots.txt ファイルはサイトマップなどの情報も備えています。 ただし多種の クロウラーは robots.txt ファイルに記されたルールなど尊重しませんから、robots.txt ファイルは(例えばスパムメールを開けるためにメールアドレスをあさるなど)不正な活動をするボットの防御策にはなりません。
ページをブロックしたところで、通常は SEO の改善にならないため、大量のページをブロックするなど無駄なことはやめましょう。 パフォーマンスの問題によりクロール量を減らす必要があっても、アクセス制限は通常、非常に大規模なサイト対応にのみ役立ちます。 ウィキペディアごとの robots.txt を確かめると、ブロック対象として上がっている多様なボットがどれほど多いか理解できます。 こんな対処をすると、ウェブ上に存在する MediaWiki のサイト類を過剰に潰すことになります。
幸い、 MediaWiki では このページの編集
や 履歴
のページ <meta name="robots" content="noindex,nofollow" />
を HTML 形式で出力しており、これらページは(おそらく)索引に載らず、特に正規のリンクを採用した場合はそうなりがちです。
この簡略な robots.txt
を使って対策に取り掛かります。
User-agent: * Disallow: /wiki/Special:Random
これはクローラーが おまかせ表示
リンクを追従できないようにして、クロールしても毎回、違うファイルになるため、botを混乱させるはずです。
サイトマップの生成と robots.txt に追加
検索エンジンのボットはサイトマップを参照して、どのページはクロールする価値があって索引子を付けるべきか、また前回から更新済みで再度、クロールが必要か、情報を得ます。[5] MediaWiki にはサイトマップを自動生成するスクリプトがあり、利用者が希望するどの名前空間も対象です。 GenerateSitemap.php を参照してください。 サイトマップは1度生成してGoogle 検索コンソール(Search Console)に提示すると、google がどれほどの頻度でサイトマップを確認しているか、その中のどのページが索引に上がっているか、確認できます。 しかしながら、実際には Google その他の検索エンジンは、情報が robots.txt に追加された後で処理をしています。
例: 複数の名前空間をサイトマップに追加するには、LocalSettings.php に $wgSitemapNamespaces を追加します。
$wgSitemapNamespaces = [ 0, 2, 4, 14, 502 ];
サイトマップの生成を 24 時間ごと(もしくは適当な間隔)に実施するクローンジョブを定義。
48 0 * * * /usr/local/bin/php /home/example/public_html/maintenance/run.php generateSitemap --fspath=/home/example/public_html/sitemap/ --urlpath=/sitemap/ --identifier=example --compress=no --skip-redirects
サイトマップをrobots.txtに追加:
Sitemap: https://example.com/sitemap/sitemap-index-example.xml
有益なリンクを作成
内部リンク – メディアウィキは、同一のウィキにある他のページへ簡単にリンクできるように構築してあり、ページを検出したクロウラーがサイト上の文脈と相対的な重要性をうまく理解するのに役立つはずです。[6] この機能を使ってみてください! Help:リンク を参照し、また実用的であれば、記入に使う自然言語に適合するアンカー文字列を使ってください。
外部リンク – 固有のウィキサイトに誇りをいだく所有者とは、事実に基づく情報の提供者であるという意味であってほしいものです。
はいかの Extension:Cite を有効にして典拠を引用しましょう!
こうしておくと、検索エンジンも読者も情報の信頼性に対する自信が増します。[7]
同様に、$wgNoFollowLinks はfalse
に設定し、リンク元のサイトとの関係を検索エンジンにより明確に伝えましょう。
お使いのウィキでは常にスパム除去をお願いします。
出典リンクにカーソルを当てるとツールチップを表示するには詳細情報を 参照ツールチップ で確認してくだい。
LocalSettings.php に追加:
$wgNoFollowLinks = false; wfLoadExtension( 'Cite' ); wfLoadExtension( 'Gadgets' ); // for reference tooltips
サイトをモバイル機器対応で最適化するには
Google では「モバイル優先の索引作り」を採用、つまりクローラーは主にスマートフォン対応のサイトを参照します。[8] Extension:MobileFrontend は皆さんのサイトを利用者がモバイル機器ごしに閲覧していると検出した場合(例:スマートフォンやタブレット)、見た目が異なる別のレイアウトを生成します。 ウィキペディアのモバイル版サイトでは、これらを利用。
高速化モバイルページ(AMP=Accelerated Mobile Pages ) は、モバイルフロントエンドが生成するページの速度に満足できない場合に検討する必要があるかもしれません。 モバイルフロントエンド MobileFrontend の代わりにExtension:AcceleratedMobilePages を使用すると、モバイル版利用者に最速の経験を提供します。
モバイルページ高速化(AcceleratedMobilePages)よりもモバイル・フロントエンド (MobileFrontend)を使いたいのに、コアウェブ重要事項(Core Web Vitals)を達成できない場合は、クラウドフェア など CDN(コンテンツデリバリネットワーク)の採用を検討してください。
WikiSEO をインストールして題名と解説を最適化
ページ題名のタグ、メタの解説、OpenGraph を追加するには、拡張機能が必要です。
SERPでは、皆さんのウィキに関して一般の人が目にするのは(通常は)題名とメタの説明文です。
Extension:WikiSEO を使うと、これらの重要な情報その他をカスタム化できます。
賢く使って、ページ題名やメタの説明を最適化しましょう。
Note that Google completely ignores the meta keywords
tag, so don't bother using it.
その他の SEO 拡張機能 も利用できるとは言っても、機能は WikiSEO ほど豊富ではありません。
メタ説明の 自動 生成はやめてください。. メタ説明の自動生成能力に関しては MediaWiki 拡張機能よりも、ページを読み取る検索エンジンの方がはるかに優れています。 説明文は優れたメタ記述で自分で書くと優れた成果が出せます。
画像の最適化
検索エンジンも人間も、画像が大好き! お使いのウィキページに高品質で独自性のある画像を追加。
ヒント集:
- 高解像度画像をアップロード。 MediaWiki では既定で $wgResponsiveImages を有効にしてあり、高解像度スクリーンを使う利用者に適切な解像度で表示します。
- お使いのウェブのホストが対応する場合は(PNG や JPEG の代わりに)WebP フォーマットを適用し、この方法で圧縮率の向上をお勧めします(ファイルサイズが小さくなる)。
- alt タグを使いましょう。 alt タグは検索エンジンを補佐して皆さんのウェブサイトにある画像 のコンテンツを理解させます。 画像の被写体を簡潔に説明。 「写真」あるいは「画像」という用語を使う必要はありません。それが画像だと既に承知しているからです。
alt タグの例:
[[File:example-image.webp|thumb|A wonderful picture of things|alt=Wonderful example]]
Prevent link rot
Users and search engines don't like to follow a link and end up on a 404 error page. Periodically use a tool to identify dead links on your site. The Extension:Replace Text can be helpful for fixing a link that appears multiple times on a page or on multiple pages.
You can add some directions to your robots.txt file in order to focus a crawler's attention on content pages, since any external crawling service should respect it. For example:
User-agent: SiteAuditBot User-agent: brokenlinkcheck Disallow: /path/honeypot Disallow: /index.php? Disallow: /wiki/Special:
外部リンク
- Google. Search Engine Optimization Starter Guide.
- Blumstein, Aviva (26 September 2011). Tested: The Best Length for a Description Tag is Longer Than You Think.