Video: The Third Industrial Revolution: A Radical New Sharing Economy 2024
Noen gang lurt på hvordan søkemotorer som Google, Yahoo!, Spør. com, og Microsoft Live Search samler og organiserer dataene sine så raskt? Se det meste av teknologi!
Først må søkemotorer samle dataene. En automatisert prosess (kjent som spidering ) gjennomsøker hele tiden Internett, samler nettsidedata til servere. Google kaller edderkoppen Googlebot ; Du kan referere til det som en spider , robot , bot eller crawler , men det er alt det samme. Uansett hva du kaller prosessen, trekker den inn massene av rå data og gjør det kontinuerlig. Dette er grunnen til at endringer på nettstedet ditt kan sees innen en dag, eller det kan ta opptil noen uker å bli reflektert i resultatene i søkemotoren.
I andre trinn må søkemotorer indeksere dataene slik at de kan brukes. For hvert søk utført av en bruker, bruker søkemotorene en algoritme for å bestemme hvilke oppføringer som skal vises og i hvilken rekkefølge. Algoritmene kan være ganske enkle eller flerskiktede og komplekse.
På industrikonferanser har Google-representanter sagt at deres algoritme analyserer mer enn 200 variabler for å søke søkerrangering til et gitt søk. Du tenker nok, "Hva er deres variabler? "Google sier ikke nøyaktig, og det er det som gjør SEO til en utfordring. Men du kan lage utdannede gjetninger. (Samme for Yahoo! og de andre.)
Så kan du designe et nettsted som får oppmerksomheten til alle søkemotorene, uansett hvilken algoritme de bruker? Svaret er ja, i en grad, men det er litt av en kunst. Dette er nøtter og bolter til SEO.