Keresőrobotok

Keresőrobotok

Wikipédia:

A keresőrobot (angolul: web crawler) egy informatikai kifejezés. Olyan speciális programok gyűjtőneve, amelyek képesek az interneten fellelhető publikus, illetve a robots.txt és a robots metatag által engedélyezett tartalmak letöltésére, és ezek valamilyen formában való elemzésére, az adatok eltárolására.

A keresőrobotokat legtöbbször keresőoldalak használják arra a célra, hogy a felkutatott és indexelt weboldalak linkjeit a saját oldalukon kereshetővé tegyék. Ilyen a talán legismertebb Googlebot, ami a Google számára tölt le weboldalakat, de nagyon sok hasonló robot létezik. A tipikus felhasználáson kívül léteznek speciális alkalmazások is, karbantartásra, vagy más adatok összegyűjtésére használt robotok is.

Internetes keresők azok az online felületek, amelyek egy adott keresésre különböző tartalmakat jelenítenek meg. Leggyakrabban kulcsszavak alapján keresünk, de tudunk képek, videók alapján is keresni. A találatokat releváns sorrendben kapjuk kézhez, rangsorolva a találati oldalakat.

Az internetes keresőket a szakemberek keresőmotornak is hívják, az angol Search Engine kifejezésből.

A keresőmotorok folyamatosan járják az internetet, felkeresve minden weboldalt, új tartalmak után kutatva, letöltik azt.

keresőrobotAz új tartalmakat a keresőrobot indexeli, metaadatokat ad hozzá és indexet épít, amely után bárki számára elérhetővé válnak.

 

További cikkek a keresőkkel kapcsolatosan: