Det er dog håp. Uansett hvor smart maskinlæring gjør søkemotoren så vil den fortsatt være avhengig av kapasiteten til Googles søkerobot, en såkalt “crawler”. Dette er måten Google indekserer alt som er på internett slik at de kan vise det i sine søkeresultater.
Søkeroboten må klare å indeksere alt på en gitt nettside før søkealgorytmen kan bruke informasjonen til å kalkulere søkeresultater. Det er mer data på internett enn roboten kan klare å rekke over – med gigantisk margin.
Det ville trolig tatt deg noe sånn som 11 milliarder år å selv laste ned absolutt alt som er på internett. Dette betyr at Google må ha flere funksjoner på plass for å filterer og budsjettere aktiviteten til søkeroboten.
Dette er det området SEOere har størst mulighet til å påvirket uten om skrive såkalt “10x content“. Vi må gå dypt innen teknisk SEO for å optimalisere ladetiden på nettsiden, serveren og i tillegg passe på å ikke overforbruke designelementer og javascript på nettsiden vår. Kort sagt, gjør det enkelt og raskt å indeksere siden din.
SEO er altså i endring – igjen. Men så lenge det finnes folk som søker etter informasjon, så vil det finnes søkemotorer – så SEO dør aldri.