インターネット検索エンジンとは
インターネットを利用する際に使用する、もっともポピュラーな機能が「検索」です。
日々無数の人が様々なパターンで検索を行います。
インターネット検索エンジンは、そのキーワードひとつひとつに対して人の手で検索結果を用意しているわけではありません。
インターネットは世界中から利用できるもの。WEBページの言語も様々ですし、その数は無数にあります。
無数にあるWEBページの内容を人が吟味することなどは不可能ですから、検索キーワードと検索結果に表示するWEBページの紐付けは、自動的になされています。
その仕組みを探ることは、インターネットをビジネスに活用する方にとっては永遠の命題ともいえます。
当然ながら、ひとつの「検索」という行動に対して、検索結果で上位に表示されれば、より多くの人に情報を伝えることができます。その”機会”は、ビジネスにも大いに役立ちます。「知られる」ということで、「購入してもらえる確立」というものは大きく違ってくるものです。当たり前です、「知らない」ものは買うことはできません。
ところで、インターネット検索エンジンはどのようにして無数に散らばるWEBページを判別しているのかというと、これには秘密があります。
「ロボット」とい呼ばれたりする自動巡回機能があるのです。検索エンジンの巡回ロボットは、無数のWEBページの内容を収集して解析し、蓄積しています。情報は検索エンジンの専用サーバーに保存されます。
そして、我々の「検索」という行為に反応して検索結果というカタチで表示されるのです。
この巡回ロボットは、WEBページの内容を機械的に判別します。WEBページ内で重要な「語句」はなくなのか、いったいこれは「何のホームページ」なのか、そしてどのような「検索キーワード」に紐付けると良いのかということです。
そこには「恣意」はなく、設定されたアルゴリズムのみ存在します。
この分析機能をブラッシュアップすることで、検索エンジンは利用者に対して有益な情報を提供しようとするのです。
私たちが配信したWEBページの情報は、このようにして検索ユーザーに届けられます。
検索ロボットは様々な観点でWEBページを解析する行動を与えられています。
実際の表示内容とページのタイトルが合っているか、他のWEBページのコピーではないか、その他作為的に無理やり高順位にしようと作られたWEBページではないか、などです。
私たちの配信するWEBページは、このように必ず「審査」を受けているといってもいいでしょう。
世の中の人達に検索を通じて見てもらうには、避けては通れないことなのです。
検索エンジンの巡回ロボットは様々なスパンでWEBサイトを訪れています。WEBサイトは更新することが大前提の情報公開ですから、何かページに変わったことはないか、と調べに来るのです。
主にこのロボットたちが読んでいるのはページの構造、内容、サイト内、ページ内で重要な語句となります。
そして度のサイトへリンクを繋いでいるのか、またどのようなサイトからリンクが繋がれているのかも調べられています。
検索エンジンのロボットたちは、まさにWEBサイトの「カルテ」のようなものを作成して、検索エンジンはどのようなキーワードでどれくらいのプライオリティなのかを判別するのです。
もちろん、検索エンジンでは「単語と単語の相関性」も加味されています。
音楽の中でもクラシックとロックミュージックは違うものです。
そのような私たちの感覚に合わせて、各単語同士の相関性から各ウェブサイトの重要性を判断しているのです。
検索エンジンの存在がなければ、インターネット上はただの無数の断片的な情報の集まりとなってしまうでしょう。
検索エンジンが「インデックス」するからこそ、収集され整理された情報として私たちのWEBブラウザで参照できるのです。
検索エンジンは、インターネットを巨大なライブラリにすることを実現できる唯一の手段といっていいでしょう。
私たちが配信する情報も、漏れなく検索エンジンによって整理されていくのです。