Ordlista för sökmotoroptimering / Indexerbarhet

Indexerbarhet

Vad är indexerbarhet?

Indexerbarhet är en webbsidas förmåga att indexeras av sökmotorer. Endast indexerbara sidor kan dyka upp i sökresultaten.

För att indexera en webbsida måste sökmotorer, till exempel Google, göra det:

  • Upptäck sidans URL
  • Genomsök den (ladda ner dess innehåll)
  • Bearbeta den (förstå och extrahera viktig information från genomsökta sidor)

Först då kan sidan visas i sökresultaten.

Om web crawlers inte kan göra sitt jobb och genomsöka en sida på din webbplats, kan den sidan inte indexeras på rätt sätt. Och utan indexering kan din webbplats sida inte få in någon söktrafik eftersom den förblir osynlig för sökmotorer.

Varför är indexerbarhet viktigt?

Indexering gör det möjligt för sökmotorer att visa din webbplats sidor i SERPs. Utan indexering kan du inte driva någon organisk söktrafik till din webbplats.

Ibland är det mer meningsfullt att göra vissa sidor icke-indexerbara. Till exempel är icke-indexerbara sidor att föredra när det gäller landningssidor, sidor av låg kvalitet eller "Tack för prenumerationen"-sidor. När allt kommer omkring vill du inte att dessa sidor ska visas i sökresultaten.

Förutsatt att du vill att webbadresserna ska rankas bör du dock se till att dessa sidor är både genomsökbara och indexerbara.

Vad gör en sida indexerbar?

För att betraktas som "indexerbar" måste sidan uppfylla följande kriterier:

1. Sidan måste vara genomsökbar

För att en webbsida ska kunna indexeras måste sökmotorns crawlers först kunna komma åt och genomsöka innehållet. En sak som direkt påverkar "crawlbarheten" på en webbsida är filen robots.txt.

En robots.txt-fil är en liten fil som ligger i webbplatsens rotkatalog. Dess uppgift är att ge instruktioner till sökrobotar och tala om för dem vilka sidor på din webbplats som inte får genomsökas. Annars kommer robotarna att genomsöka alla sidor som de kan hitta på webbplatsen; de gör det som standard.

Det finns fall där det är vettigt att placera sådana "begränsningar". Det är dock viktigt att se till att du inte omedvetet blockerar de sidor som du vill ska indexeras.

2. Sidan får inte ha en "Noindex"-tagg

En "noindex"-tagg är ett direktiv på sidan som instruerar sökmotorn att inte indexera en viss sida. I grund och botten förhindrar det att en sida visas i SERP.

Ibland är det lämpligt att "noindexera" vissa sidor - t.ex. landningssidor, inloggningssidor, tunna sidor eller sidor av låg kvalitet eller "Tack"-sidor - och hålla dem "privata".

Men om du missbrukar eller t.ex. glömmer att ta bort detta direktiv från den sida som du vill ska indexeras, kommer du att förlora organisk söktrafik.

Du kan genomsöka din webbplats med Ranktrackers verktyg Site Audit för att se till att ingen av de sidor som du vill ska indexeras har en "noindex"-tagg.

3. Sidan måste vara kanonisk

En kanonisk tagg (rel="canonical") i en sidkod definierar huvudversionen för duplicerade, nästan duplicerade och liknande sidor. Detta innebär att endast kanoniska sidor kan indexeras medan deras icke-kanoniska versioner utesluts.

Om du inte lägger till den kanoniska taggen på en sida kommer Google att förlita sig på signaler som interna och externa bakåtlänkar, XML-webbplatskartan och omdirigeringar för att avgöra vilken URL som ska "representera" det klustret i sitt index.

Det innebär att om du vill att din sida ska synas i sökresultaten får den inte ange någon annan sida som sin kanoniska version. God SEO-praxis är att ha självrefererande kanoniska taggar för indexerbara sidor.

Så här hjälper du Google att indexera din sida

Här är vad du kan göra för att hjälpa Google att indexera sidorna på din webbplats:

1. Skicka in webbplatskartor till Google

En webbplatskarta är i princip en lista (vanligtvis i XML-format) som innehåller alla sidor på din webbplats.

Webbplatskartans roll är att berätta för Google om de sidor som du vill ska indexeras på din webbplats.

Innan du skickar in en webbplatskarta bör du kontrollera att den återspeglar webbplatsens aktuella status och åtgärda eventuella fel - t.ex. brutna länkar, övergivna sidor och liknande.

Du kan skicka dina sitemaps till Google med hjälp av Google Search Console.

2. Skicka in enskilda sidor via URL Inspection Tool

Om du vill begära indexering eller omindexering av bara några enstaka webbadresser kan du använda URL Inspection Tool i Google Search Console.

URL Inspection tool är ett diagnostiskt verktyg som finns i Google Search Console och som ger dig inblick i Googles indexerade version av din webbsida och gör att du bland annat kan testa webbadresserna live och se den renderade versionen av sidan.

Du kan också skicka in enskilda sidor till Google.

Om du vill begära indexering av en ny webbadress - eller ny crawling och ny indexering av uppdaterade webbadresser - kan du be Google att göra det genom att välja knappen "Begär indexering". Om det inte finns några fel i din live-URL kommer Google att lägga till din sida i sin crawlkö.

Observera dock att det finns en gräns för hur många webbadresser du kan begära indexering av per dag.

3. Tillhandahåll interna länkar för bättre/snabbare upptäckbarhet

Ett annat sätt att uppmuntra crawling och i sin tur påskynda indexeringen av webbplatsen är att använda intern länkning.

När Googles sökrobotar söker igenom Internet följer de en väg som bildas av länkar. Så när en sida på din webbplats länkar till en annan kommer sökrobotarna att följa den befintliga sökvägen - och upptäcka nytt innehåll.

Sidor utan interna länkar kallas "föräldralösa sidor".

Det är därför det är viktigt att se till att du har interna länkar som går till och från dina viktigaste sidor. Visst, det sker vanligtvis naturligt när du skapar en välorganiserad webbplats.

Det skadar dock inte att kontrollera om det finns föräldralösa sidor - som sidor som inte har interna länkar som pekar på dem - på din webbplats. Du kan göra det med Ranktrackers verktyg Site Audit.

På en relaterad anmärkning bör du se till att dessa interna länkar som pekar på indexerbara sidor inte har en "nofollow"-tagg eftersom Google inte kommer att genomsöka nofollow-länkar.

Vanliga frågor

Vad är Robots.txt-filens roll i indexerbarhet?

Filen robots.txt ger instruktioner till web crawlers om vilka sidor eller delar av din webbplats som inte ska genomsökas, vilket påverkar genomsökbarheten och därmed indexerbarheten för dina sidor.

Hur kan jag kontrollera om mina sidor är indexerade?

Du kan kontrollera om dina sidor är indexerade genom att använda Google Search Console. Verktyget ger insikter om dina webbadressers indexeringsstatus.

Vilken inverkan har föräldralösa sidor på indexerbarheten?

Försvunna sidor, som inte har några interna länkar som pekar på dem, är mindre benägna att upptäckas och indexeras av sökmotorer. Om du ser till att alla viktiga sidor är väl länkade på din webbplats förbättras deras indexerbarhet.

Genom att se till att dina sidor är sökbara, fria från "noindex"-taggar och korrekt kanoniserade kan du förbättra deras chanser att indexeras och synas i sökmotorernas resultat. Regelbundna revisioner och strategisk intern länkning kan ytterligare stödja detta mål.

SEO för lokala företag

Folk söker inte längre efter lokala företag i Gula sidorna. De använder Google. Lär dig hur du kan få fler affärer från organisk sökning med våra SEO-guider för lokala företag.

Börja använda Ranktracker gratis!

Ta reda på vad som hindrar din webbplats från att rankas

Skaffa ett kostnadsfritt kontoEller logga in med dina autentiseringsuppgifter
Börja använda Ranktracker gratis!