ロボット型検索エンジンで一番有名なのはGoogleですね。
Googleがどうやってサイトの情報を収集しているかというと
「スパイダー」というソフトがリンクをたどって情報を集めて回っているんです。
つまりどこからかリンクをされていれば登録申請をしなくてもスパイダーが情報を集めて検索結果に表示されるようになるんです。
だからサイトを更新したりページを増やしたりした場合でも登録申請をやり直さなくてもしっかり登録されるというわけです。
でも1つのページにあまりおおくのリンクがあるとスパイダーがすべてのリンクを巡回してくれない場合もあります。
1ページあたりのリンク数は50程度が安全のようです。
ところでこのスパイダーはサイトの情報をすべて読み取るわけではなくて「文字情報」を重点的にチェックしています。
タイトルなどを画像で表示しているサイトは人の目でみると華やかに見えますがスパイダーは認識できません!画像だらけでは価値のないサイトと判断されて、検索結果の上位にランクされません。
サイトを派手にするために画像を使うのはよい事ですが文字情報とのバランスも考えましょう。
|