SEO-ordliste / Indekserbarhed

Indekserbarhed

Hvad er indekserbarhed?

Indeksering er en websides evne til at blive indekseret af søgemaskiner. Kun sider, der kan indekseres, kan dukke op i søgeresultaterne.

For at indeksere en webside skal søgemaskiner, såsom Google, gøre det:

  • Find frem til sidens URL
  • Crawl den (download dens indhold)
  • Bearbejd det (forstå og udtræk nøgleinformation fra crawlede sider)

Først da kan siden vises i søgeresultaterne.

Hvis webcrawlere ikke kan gøre deres arbejde og crawle en side på dit websted, kan den side ikke indekseres korrekt. Og uden indeksering kan dit websteds side ikke give nogen søgetrafik, fordi den forbliver usynlig for søgemaskinerne.

Hvorfor er indeksering vigtig?

Indeksering gør det muligt for søgemaskiner at vise dit websites sider i SERP'erne. Uden indeksering kan du ikke drive organisk søgetrafik til dit websted.

Nogle gange giver det mere mening at gøre visse sider ikke-indeksérbare. For eksempel foretrækkes sider, der ikke kan indekseres, når det drejer sig om landingssider, sider af lav kvalitet eller "Tak for abonnement"-sider. Når alt kommer til alt, vil du ikke have, at disse sider vises i søgeresultaterne.

Forudsat at du vil have URL'erne til at rangere, skal du dog sikre dig, at disse sider både kan crawles og indekseres.

Hvad gør en side indekserbar?

For at blive betragtet som "indeksérbar" skal siden opfylde følgende kriterier:

1. Siden skal kunne crawles

For at en webside kan indekseres, skal søgemaskinens crawlere først kunne få adgang til og gennemgå dens indhold. En ting, der har direkte indflydelse på en websides "crawlbarhed", er robots.txt-filen.

En robots.txt-fil er en lille fil, der ligger i din hjemmesides rodmappe. Dens rolle er at give instruktioner til webcrawlere og fortælle dem, hvilke sider på dit websted der ikke må crawles. Ellers vil bots gennemgå enhver side, de kan finde på webstedet; det gør de som standard.

Der er tilfælde, hvor det giver mening at placere sådanne "begrænsninger". Alligevel er det vigtigt at sikre, at du ikke ubevidst blokerer for de sider, du gerne vil have indekseret.

2. Siden må ikke have et "Noindex"-tag

Et "noindex"-tag er et on-page-direktiv, der instruerer søgemaskinen i ikke at indeksere en bestemt side. Dybest set forhindrer det en side i at blive vist i SERP'er.

Nogle gange er det tilrådeligt at "noindexere" visse sider - f.eks. landingssider, login-sider, tynde sider eller sider af lav kvalitet eller "tak"-sider - og holde dem "private".

Men hvis du misbruger eller f.eks. glemmer at fjerne dette direktiv fra den side, du gerne vil have indekseret, vil du miste organisk søgetrafik.

Du kan gennemgå dit website med Ranktrackers Site Audit-værktøj for at sikre, at ingen af de sider, du vil have indekseret, har et "noindex"-tag.

3. Siden skal være kanonisk

Et kanonisk tag (rel="canonical") i en sidekode definerer hovedversionen for duplikerede, næsten duplikerede og lignende sider. Det betyder, at kun kanoniske sider kan indekseres, mens deres ikke-kanoniske versioner vil blive udelukket.

Medmindre du tilføjer det kanoniske tag til en side, vil Google stole på signaler som interne og eksterne backlinks, XML-sitemap og omdirigeringer for at beslutte, hvilken URL der skal "repræsentere" den pågældende klynge i sit indeks.

Det betyder, at hvis du vil have din side til at dukke op i søgeresultaterne, må den ikke erklære nogen anden side som sin kanoniske version. God SEO-praksis er at have selvrefererende kanoniske tags for sider, der kan indekseres.

Sådan hjælper du Google med at indeksere din side

Her er, hvad du kan gøre for at hjælpe Google med at indeksere dit websteds sider:

1. Indsend sitemaps til Google

Et sitemap er i bund og grund en liste (typisk i XML-format), der indeholder alle siderne på dit website.

Sitemapets rolle er at fortælle Google om de sider, du gerne vil have indekseret på dit website.

Før du indsender et sitemap, skal du kontrollere, om det afspejler dit websites aktuelle tilstand, og rette eventuelle fejl - såsom ødelagte links, forældreløse sider og lignende.

Du kan sende dine sitemaps til Google ved hjælp af Google Search Console.

2. Indsend individuelle sider via URL-inspektionsværktøjet

Hvis du gerne vil anmode om indeksering eller genindeksering af nogle få individuelle URL'er, kan du bruge URL Inspection Tool i Google Search Console.

URL-inspektionsværktøjet er et diagnosticeringsværktøj, der findes i Google Search Console, og som giver dig indsigt i Googles indekserede version af din webside og giver dig mulighed for blandt andet at teste URL'erne live og se den gengivne version af siden.

Det giver dig også mulighed for at sende individuelle sider til Google.

Hvis du vil anmode om indeksering af en ny URL - eller re-crawling og re-indeksering af opdaterede URL'er - kan du bede Google om at gøre det ved at vælge knappen "Anmod om indeksering". Hvis der ikke er nogen fejl i din live-URL, vil Google tilføje din side til sin crawl-kø.

Bemærk dog, at der er en grænse for, hvor mange URL'er du kan anmode om at få indekseret pr. dag.

3. Giv interne links til bedre/hurtigere opdagelse

En anden måde at fremme crawling på og dermed fremskynde indekseringen af websitet er at bruge interne links.

Når de gennemsøger internettet, følger Googles crawlere en sti, der er dannet af links. Så når en side på dit website linker til en anden, vil disse crawlere følge den eksisterende sti - og opdage nyt indhold.

Sider uden interne links kaldes "forældreløse sider".

Derfor er det vigtigt at sikre, at du har interne links, der går til og fra dine vigtigste sider. Indrømmet, det sker typisk naturligt, når du opretter et velorganiseret websted.

Det skader dog ikke at tjekke, om der er forældreløse sider - som sider, der ikke har interne links, der peger på dem - på dit website. Det kan du gøre med Ranktrackers Site Audit-værktøj.

I den forbindelse bør du sikre dig, at disse interne links, der peger på indekserbare sider, ikke har et "nofollow"-tag, fordi Google ikke crawler nofollow-links.

Ofte stillede spørgsmål

Hvad er Robots.txt-filens rolle i indeksering?

Filen robots.txt giver instruktioner til webcrawlere om, hvilke sider eller sektioner af dit websted der ikke skal crawles, hvilket påvirker crawlbarheden og efterfølgende indekseringen af dine sider.

Hvordan kan jeg tjekke, om mine sider er indekseret?

Du kan tjekke, om dine sider er indekseret, ved at bruge Google Search Console. Værktøjet giver indsigt i dine URL'ers indekseringsstatus.

Hvilken betydning har forældreløse sider for indekseringsevnen?

Forældreløse sider, som ikke har nogen interne links, der peger på dem, er mindre tilbøjelige til at blive opdaget og indekseret af søgemaskiner. Hvis du sikrer, at alle vigtige sider er godt linket på dit websted, forbedres deres indekseringsevne.

Ved at sikre, at dine sider kan crawles, er fri for "noindex"-tags og er korrekt kanoniserede, kan du forbedre deres chancer for at blive indekseret og blive vist i søgemaskinernes resultater. Regelmæssige revisioner og strategisk intern linking kan understøtte dette mål yderligere.

SEO for lokale virksomheder

Folk søger ikke længere efter lokale virksomheder i De Gule Sider. De bruger Google. Lær, hvordan du får mere forretning ud af organiske søgninger med vores SEO-guider til lokale virksomheder.

Begynd at bruge Ranktracker gratis!

Find ud af, hvad der holder din hjemmeside tilbage fra at rangere

Få en gratis kontoEller log ind med dine legitimationsoplysninger
Begynd at bruge Ranktracker gratis!