Genomsökningsförmåga är en sökmotors som Googles förmåga att komma åt och genomsöka innehåll på en sida. En sökrobot, ett index och en algoritm är de tre komponenterna som utgör en sökmotor som Google. Sökroboten rör sig genom varje anslutning. När webbsökroboten som drivs av Google, även känd som Googlebot, stöter på din webbplats, renderar den den, läser den och lagrar sedan materialet i indexet.
En crawler är ett program som navigerar på webben genom att följa länkar. Crawlers kallas ibland robotar, bottar eller spindlar. När de når en webbplats sparar de HTML-versionen av sidan i en enorm databas som kallas index.
Detta index uppdateras varje gång webbcrawlern navigerar på din webbplats och upptäcker en ny eller uppdaterad version av innehållet. Frekvensen för webbcrawlerns besök på din webbplats är direkt proportionell mot den vikt som Google tillskriver din webbplats och antalet uppdateringar du gör.
Vilka faktorer påverkar en webbplats genomsökningsbarhet och indexerbarhet?
1. Webbplatsens struktur
Webbplatsens genomsökningsbarhet påverkas avsevärt av den informativa strukturen den har.
Naturligtvis kan användare fortfarande hitta sådana sidor genom att använda länkar till andra webbplatser, förutsatt att någon nämner dem i materialet de tittar på. Å andra sidan kan genomsökningsförmågan påverkas av en struktur som är dålig överlag.
2. Ramverket för interna länkar
En webcrawler navigerar sig fram på internet genom att följa länkar, ungefär som du skulle göra på varje sida de besöker. Följaktligen kan den bara hitta sidor som du har länkat till från annat material.
Därför, om du har en korrekt intern länkstruktur, kommer det att vara möjligt att snabbt komma åt även sidor djupt inne i din webbplats design. Å andra sidan kan ett otillräckligt system orsaka ett dödläge, vilket resulterar i att en webcrawler missar delar av ditt material.
3. Omdirigeringar i loopar
En webbcrawler kunde inte fortsätta om det fanns felaktiga sidomdirigeringar, vilket resulterade i problem med genomsökningsmöjligheterna.
4. Serverfel
På samma sätt kan webcrawlers eventuellt inte komma åt allt ditt material om servern har trasiga omdirigeringar eller om det finns många andra problem relaterade till servern.
5. Skript som inte stöds och andra tekniska faktorer
Tekniken du använder på webbplatsen kan orsaka problem med genomsökningsförmågan för användare och sökmotorer. Till exempel kan inte sökrobotar följa formulär, och att gata innehåll bakom ett formulär kommer att leda till problem med webbplatsens genomsökningsförmåga.
Slutord
Även om crawlbarhet bara är en av grunderna i teknisk SEO, anser den stora majoriteten att det redan är mycket sofistikerat material.
Crawlers är viktiga för Googles indexeringsprocess; men om du hindrar dem från att komma åt din webbplats kommer du aldrig att få en hög Google-ranking, inte ens omedvetet.
Därför, om du menar allvar med att lära dig mer om termer inom sökmotoroptimering (SEO), bör du besöka Seahawk för mer information.