Hvilke algoritmer har Google introduceret, og hvordan har de påvirket søgeresultaterne?

Det er ikke for sjov, at Google er gået hen og blevet verdens største søgemaskine. Successen skyldes bl.a. dens avancerede algoritmer, som formår at frembringe de søgeresultater, som vi får leveret ved en søgning som følge af utallige beregninger og sammenligninger. Siden søgemaskinens lancering, har Google stræbt efter at give brugeren de mest relevante søgeresultater, når han eller hun bruger søgemaskinen.

I takt med, at Googles markedsandel er blevet større og større, er interessen for at ligge nummer 1 i søgeordsresultaterne også øget. Den øgede aktivitet hos hjemmesideejere har ført til, at Google har måtte justere dets algoritmer for at opretholde den gode brugeroplevelse, der indebærer relevante søgeresultater.

Hvor mange algoritmeændringer har Google foretaget?

Som udgangspunkt er det kun Google selv, der helt nøjagtigt ved, hvor mange algoritmeændringer der er foretaget siden begyndelsen, og hvad de helt præcist indebærer for hjemmesideejere. Derfor er algoritmernes formål ofte baseret på, hvilke effekter SEO-eksperter oplever som følge af implementeringen. Dog er der en håndfuld nye algoritmer, som har stået ud og gjort sig ekstra bemærkede. Dem vil vi kigge nærmere på i følgende artikel.

Google Panda

Inden Google Panda gjorde sin entré i april 2012, var overbevisningen, at alle link enten førte noget positivt med til rankeringen af hjemmesiden eller intet – aldrig noget negativt. Altså betød antallet af links mere end linkets relevans og kvalitet.

Selve algoritmen er ikke ny, men den forbedres og opdateres jævnligt, hvilket kan have større konsekvenser for ens websites rankering i søgeresultaterne. Algoritmeændringen fra april 2012 havde store følger for mange hjemmesideejere, som tidligere lå med høje placeringer i de organiske resultater, og nu blev smidt ned på dårligere placeringer. Dette skabte stor forvirring hos mange.

Google Panda betød, at de hidtil mest kendte og benytte SEO-teknikker ikke længere var gældende. Ved at fokusere på de hjemmesider, som havde udnyttet tankegangen “kvantitet over kvalitet”, var det muligt for Google at nedtone dem i søgeresultaterne. Konsekventligt kunne Google nedprioritere mange websites, som var placeret højt i søgeresultaterne på grund af teknikker, der intet havde med kvalitet, relevant eller brugeroplevelse af gøre.

Google Penguin

I samme omgang, som Google Panda blev lanceret, annoncerede Google et nyt linkbuildingfilter, nemlig Google Pingvin i april 2012. Google Pingvin har til formål at belønne hjemmeside af høj kvalitet og mindste tilstedeværelsen af søgeresultater, der beskæftiger sig med keyword stuffing og linkordninger af lav kvalitet og relevans. Det førte til, at links som førhen havde givet en smule værdi til et website blev elimineret,

Eftersom Panda og Pingvin udkom på samme tid, blev det endnu sværere for websitets, der var blevet straffet at gennemskue, hvordan de mest hensigtsmæssigt kunne generobre tabte placeringer i Google søgeresultater.

Google Hummingbird

I september 2013 annoncerede Google, at søgemaskinen havde lavet en komplet overhaling af deres kernealgoritme, nemlig Google Kolibri. Opdateringen er en af de mest markante ændringer af Googles algoritmer, som ændrede SEO-landskabet for altid. Kolibri er Googles forsøg på at ændre mod en mere semantisk søgemaskine.

Algoritmen har tvunget hjemmesideejere til at anskue SEO fra en ny vinkel. Hvor søgeordet “Hvor kan jeg købe italiensk tomatsovs” normalt ville sigte efter at vise resultater, hvor sætningen optrådte, så tager den nye opdatering hånd om hele sætningen og ikke kun de enkelte ord. Ganske enkelt betyder Kolibri-opdateringen, at Google forstår, hvad man søger efter og derfra forsøger at finde svaret på ens søgning.

Google Pigeon

Google introducerede en ny algoritme i 2014. Google Due blev lanceret med formålet at gøre det lettere for den enkelte bruger at lokalisere virksomheder eller butikker i nærheden af dem selv. Hvor de fleste af Googles algoritmeændringer har til formål at forbedre oplevelsen for brugeren, så er Google Due i virkelighed en indirekte hjælp til lokale virksomheder.

Ved at være registreret på Google Maps og Google My Business bliver virksomhedens navn, adresse og andre vigtige oplysninger i søgeresultatet, hvilket fortæller Google, at ens virksomhed eksisterer. Det fører til, at ens website vil blive vist højere i søgeresultater, når der bliver søgt efter et produkt, en ydelse eller noget andet, man tilbyder i det gældende område.

Google Possum

Det er efterhånden tydeligt, at Google har for vane at navngive deres algoritmer efter dyr, og i 2016 fik vi pungrotten. Algoritmen er faktisk aldrig blevet af Google, men de fleste er enige om, at den har dokumenteret størst indflydelse på lokale søgeresultater.

Før algoritmens entré, var det normalt, at flere virksomheder, som delte tilhørsforhold, ville blive vist i samme lokale søgning, selvom de måske ikke lå i et relevant geografisk område. Pungrotten har bidraget til, at Google er blevet bedre til at opdele lokale søgninger i mere lokalt etablerede områder, hvilke giver lokale virksomheder i yder landområde mulighed for at blive vist i søgningerne. Derfor har det siden algoritmens annoncering været vigtigere end før at få styr på virksomhedens lokale søgeordsoptimering. Konsekventligt er brugeren sikker på at få vist de absolut bedste og mest relevante søgeresultater, når man benytter termet “i nærheden”, da det resulterer i en opremsning af den type af butik eller virksomhed, som Google kan lokaliserer indenfor for 10-15 km fra nuværende lokalisation.

Siden pungrotten blev sluppet løs i september 2019, har algoritmen ført til flere fald i lokale søgeresultater, som stadigvæk fluktuerer meget i position fra dag til dag.

Hvorfor implementerer Google nye algoritmer?

Som sagt nævner denne artikel kun en håndfuld af de mange algoritmeændringer og opdateringer, som Google har introduceret siden dets etablering. Tidligere introducerede Google oftest nye algoritmer eller opdateringer ud fra et reaktivt formål – altså, når de havde opdaget “et hul” som hjemmesideejere havde udnyttet. Et eksempel på dette er Interflora, som pludselig steg i rankings på alle søgeord. Men ikke lang tid efter, var virksomheden ikke til af finde i Googles søgeresultater – hvordan det? Det viste sig, at Interflora var blevet beskyldt for at have manipuleret med links, hvorfor Google straffede websitet og fjernede det helt fra søgemaskinen. Dette ledte til en algoritmeændring, som “lukkede hullet”.

Siden da, er det blevet mere og mere tydeligt, hvordan søgemaskinen søger at læse indhold, ligesom brugerne. Dette er med henblik på at sortere spam væk og fokusere på reelt indhold. Googles formål med at opdatere algoritmer og introducere nye kan deles op i to: For det første stræber Google efter at undgå, at irrelevante hjemmesider, der indeholder spam, opnår høje placeringer i søgeresultaterne, da det kan have negative effekter på brugeroplevelsen. Derfor går Google efter at kunne aflæse indhold og forstå, hvad indholdet handler om. Konsekventligt er Google konstant nødt til at arbejde proaktivt for at være på forkant.