Web教材一覧ネットワーク

検索エンジン

キーワード

ポータルサイト、検索エンジン、ディレクトリ型検索、ロボット型検索、クローラー、SEO


検索エンジンとは

Webページにアクセスするには、直接URLを入力するよりも、GoogleやYahoo!などの検索ポータルサイトを介してアクセスするほうが多いでしょう。これらのポータルサイトで用いている検索システムを検索エンジンといいます。独自の検索エンジンを持つポータルサイトもありますが、他社が開発した検索エンジンを採用しているポータルサイトもあります。

検索エンジンでは、多数のWebページの収集と分類が重要です。その収集にはディレクトリ型検索とロボット型検索があります。

多くの検索エンジンは、この両方の方式を組み合わせていますが、ロボット型が主流ですので、以下、ロボット型検索エンジンに限定します。

ロボット型の検索エンジンの機能

検索エンジンの検索結果を表示するページをSERP(Search Engine Result Page)といいます。
 検索エンジンの質は、「リクエストとの一致度が高い順」が優れていることが重要です。単にリクエストの文字列が多いだけでなく、信頼性の高いページを優先することも大切です。順位付けの方法をアルゴリズムといいますが、高度の企業秘密であり、検索エンジンにより異なりますし、頻繁に改良されているといわれています。

SEO

Webサイトを開設しても、アクセスされなければ、ないのと同じですから、特に商用のサイトでは、ポータルサイトで検索結果リストの上位にランクされることが重要です(参照:「BtoCサイト運営での留意点」)。その工夫をSEO(Search Engine Optimization)といいます。
 人間の審査が行われるディレクトリ型検索では、Webページの質が評価尺度になるので、SEOは役に立ちませんが、ロボット型では、評価アルゴリズムを調べてSEOの工夫をすることができます。そのノウハウをビジネスにしている業者もいるほどです。
 評価アルゴリズムは秘密になっていますが、
  評価の高いWebページからのリンクが多い(リンクポピュラリティという)。
  人間にもわかりやすい構成で記述されている。
ことが上位ランクに評価されるといわれています。(詳細:「SEO:検索エンジンに適したWebページとは」
 このような正当なアプローチによりSEOを俗にホワイトハットといいます。

しかし、なかにはアルゴリズムの裏をかく邪道ともいえるテクニックを講じることもある(ブラックハットという)ので、検索エンジンではそれを回避する手段を講じています。検索エンジンのアルゴリズムを秘密にしているのはブラックハット対策でもあります。

フィルタバブル

検索エンジンが「リクエストとの一致度」を重視するあまり、単なるリクエストだけでなく、ユーザの過去の閲覧履歴やユーザの個人特性までも考慮して、「ユーザの望む」情報を優先して表示する、望まない情報はフィルタリングするまでになってきました。それをパーソナライゼーテョンといいます。

それが進むと、見たくないような情報が泡(バブル)に包まれたようにフィルタされ、自分が見たい情報しか表示されなくなります。それをフィルタバブルといいます。
 その結果、偏った情報しか得られず、適切な判断ができなくなる傾向が生じます。それが社会的・政治的な分野に及ぶと由々しき問題になります。

これを防ぐには、個人的には、クッキー、履歴、キャッシュ等を毎回消去するブラウザの機能(プライベートモード)を活用するとか、検索エンジンやSNSの管理企業がパーソナライゼーテョン機能を外すなどが望まれています。

Web広告

多くのポータルサイト運営は商用目的ですから、客観的な検索結果リストだけでなく、有料で検索エンジンの検索結果画面に表示される広告をしています(参照:「Webマーケティング」