SzámítógépekProgramozás

Mi az a robot? lánctalpas eszköz „Yandex” és a Google

Minden nap az interneten van egy hatalmas mennyiségű új anyag létrehozásához honlap naprakész a régi weboldalak, fotók és videók feltöltését. Anélkül rejtve keresők nem található a World Wide Web, azonban ezen iratok. Alternatívák mint robot programok bármikor nem létezik. Mi a keresést robot, hogy miért kell ez, és hogyan működik?

Mi a keresési robot

Lánctalpas hely (search engine) - ez egy automatikus program, amely képes látogasson el a weboldalak millióit, gyorsan navigál az interneten keresztül anélkül, hogy a kezelő beavatkozása. Botok folyamatosan szkennelési helyet a World Wide Web, hogy új weboldalakat, és rendszeresen látogatom már indexelt. Egyéb elnevezések webes robotok pókok, csúszómászó, robotok.

Miért keresőrobotok

A fő funkciók elvégzésére keresőrobotok - indexelt oldalak, valamint a szöveg, kép, hang és videó fájlok, amelyek rájuk. Botok ellenőrizze referenciák, tüköroldalak (másolat) és frissítéseket. A robotok is végeznek HTML-kód ellenőrzés megfelelőségi előírások Világszervezet, amely fejleszti és megvalósítja a technológiai szabványok a World Wide Web.

Mi az indexelés és miért van szükség

Indexelés - van, sőt, az a folyamat, a látogató egy adott weboldal a keresőkben. A program beolvassa a szöveget az oldalon, képeket, videókat, a kimenő linkeket, akkor az oldal jelenik meg a keresési eredmények között. Bizonyos esetekben, a helyszínen nem lehet beolvasni automatikusan, akkor adhatunk a kereső kézzel webmester. Általában ez akkor történik, ennek hiányában a külső linkek egy adott (gyakran csak a közelmúltban létrehozott) oldal.

Hogyan, hogy a keresőrobotok

Minden kereső saját bot a Google kereső robot jelentősen változhat mechanizmus szerint működik egy hasonló program, „Yandex”, vagy más rendszerekben.

Általában a robot működési elve a következő: a program „jön” a helyszíni és külső linkek a főoldalon, „olvassa” Web erőforrás (beleértve azok számára, akik feje fölött, hogy nem látja a felhasználó). Hajó, hogyan kell navigálni az oldalak között a helyszínen, és lépni a többiek.

A program melyik oldalon az index? Sokszor nem „utazás” a pók kezdődik híroldalak vagy nagyobb erőforrás könyvtárak és aggregátor nagy referencia súlyát. Lánctalpas folyamatosan beolvassa az oldalakat egyenként, a sebesség és a következetesség indexelni a következő tényezőket:

  • Belső: perelinovka (belső közötti kapcsolatok oldalak ugyanazon forrás), site mérete, a helyes kódot, felhasználóbarát, és így tovább;
  • Külső: a teljes referencia súly, ami a helyszínen.

Az első dolog, amit a kereső robot keresések bármely weboldalon a robots.txt. További erőforrás indexelés alapján hajtjuk végre a beérkezett információ a dokumentumról. Ez a fájl tartalmazza a konkrét utasításokat a „pók”, amely növeli az esélyét az oldal látogatásai keresők, és ennek következtében az egy korai hit helyén a „Yandex” vagy a Google.

Program analógok bejárók

Gyakran a „keresés robot” zavaros intelligens, felhasználó vagy autonóm ágensek „hangyák” vagy „férgek”. Elmerül jelentős különbségek csak képest szerek, egyéb meghatározását lásd a hasonló típusú robotok.

Például, alkalmas anyagok lehetnek:

  • szellemi: a program, ami mozgatja a webhelyek, függetlenül dönt, hogyan kell eljárni; ezek nem túl gyakori az interneten;
  • Önálló: Ezek a hatóanyagok segítik a felhasználót egy termék kiválasztásánál, keresés, vagy űrlapok kitöltése, az úgynevezett szűrők, amelyek kevés kapcsolódó hálózati programok.;
  • user: a program hozzájárul a felhasználói interakció a World Wide Web, a böngésző (például Opera, IE, Google Chrome, Firefox), hírvivők (Viber, távirat), vagy e-mail programok (MS Outlook és a Qualcomm).

„Hangyák” és a „férgek” jobban hasonlít a kereső „pók”. Az első forma közötti hálózati és következetesen kölcsönhatásba ilyen kolónia „férgek” képes lemásolni más tekintetben megegyezik a standard bejáró.

Változatos kereső robotok

Megkülönböztetni a sok fajta csúszómászó. Attól függően, hogy a program célja, ezek a következők:

  • „Mirror” - ismétlődések böngészi weboldalak.
  • Mobile - összpontosít mobilverziói weboldalakat.
  • Gyors - rögzíti az új információk gyors megtekintésével a legújabb frissítéseket.
  • Referencia - referencia index, megszámolják a számokat.
  • Indexers különböző típusú tartalmak - különleges programokat szöveg, hang, videó, kép.
  • „Spyware” - oldalakat keres, amelyek még nem jelenik meg a kereső.
  • „Harkály” - rendszeresen látogassa oldalakat, hogy ellenőrizze a megfelelőségét és hatékonyságát.
  • Országos - böngészés a weben erőforrás található az ország egyik domének (pl .mobi vagy .kz .ua).
  • Global - index minden nemzeti oldalakon.

Robotok nagy keresőprogramok

Van még néhány keresőmotor pókok. Elméletileg a funkcionalitás széles határok között változhat, de a gyakorlatban a programok szinte azonosak. A fő különbség indexelése weboldalakat robotok két nagy keresőprogramok a következők:

  • A szigorúság a tesztelés. Úgy véljük, hogy a mechanizmus a bejáró „Yandex” némileg szigorúbb becslést a helyszínen a szabványoknak való megfelelés, a World Wide Web.
  • Épségének megőrzéséhez az oldalon. A Google robot indexek a teljes webhely (beleértve a médiatartalom), „Yandex” is megtekintheti tartalom szelektíven.
  • Sebesség teszt az új oldalt. Google hozzáadja az új erőforrás a keresési eredmények néhány napon belül, abban az esetben „a Yandex” folyamat eltarthat két hétig vagy tovább.
  • A frekvencia újbóli indexelés. Lánctalpas „Yandex” Frissítések hetente kétszer, és a Google - egy minden 14. napon.

Internet, természetesen nem korlátozódik a két keresők. További keresők megvan a robotok, akik követik a saját indexelés paramétereit. Ezen kívül számos „pók”, amelyek célja nem súlyos keresés források, és az egyes csoportok vagy webmesterek.

tévhittel

A közhiedelemmel ellentétben, „pók” nem dolgozza fel az információkat. A program csak keresi és tárolja a weboldalak és a további feldolgozás vesz egy teljesen más robotok.

Sok felhasználó úgy vélik, hogy a keresőrobotok negatív hatással és „káros” Internet. Sőt, egyes változatai „pók” jelentősen túlterheli a szervert. Van is egy emberi tényező - a webmester, aki megalkotta a programot, lehet hibázni a robot konfigurációban. Mégis a legtöbb meglévő programok jól megtervezett és szakszerűen irányított, és a felmerülő problémákat haladéktalanul el kell távolítani.

Hogyan kell kezelni az indexelés

Keresőmotor robotok automatizált programok, de az indexelési folyamat részben szabályozható a webmester. Ez nagyban segíti a külső és belső optimalizálás a forrás. Ezen kívül manuálisan is hozzáadhat egy új helyszínen, hogy a kereső: nagy erőforrásokat egy speciális formája a weblapok regisztráció.

Similar articles

 

 

 

 

Trending Now

 

 

 

 

Newest

Copyright © 2018 hu.delachieve.com. Theme powered by WordPress.