• Õppige SEO-d

Mis on HTTP olekukoodid

  • Felix Rose-Collins
  • 3 min read

Intro

Robotite välistamise protokoll (REP) on veebimeistri fail, mida kasutatakse robotite juhendamiseks. Juhised aitavad robotitel roomata veebilehti ja indekseerida neid erinevate veebisaitide jaoks. Seda REP-i nimetatakse mõnikord Robots.txt. Need paigutatakse veebiserveri kataloogi ülemisele tasandile, et need oleksid kõige kasulikumad. Näiteks: https://www.123abc.com/robots.txt REP gruppe kasutatakse veebistandardina, mis reguleerib robotite tegevust ja otsingumootorite indekseerimise käitumist. Aastatel 1994-1997 määratlesid algsed REP robots.txt boti käitumist. 1996. aastal toetasid otsingumootorid täiendavaid REP X-roboti märgiseid. Otsingumootorid käsitlesid linke, mille väärtus sisaldas "follow", kasutades mikroformaati rel-no follow.

Roboti spikker

Et täielikult blokeerida veebi roomikud

Kasutaja-agent: * Disallow: /

Konkreetsete veebikülastajate blokeerimine sihtkaustast

Kasutaja-agent: Googlebot Disallow: /no-google/

Konkreetsete veebikülastajate blokeerimine sihtveebilehelt

Kasutaja-agent: Googlebot Disallow: Kasutajaliige: /no-google/blocked-page.html User-agent: /no-google/blocked-page: * Disallow:   
Sitemap: https://www.123abc.com/none-standard-location/sitemap.xml

Väljaarvamine Spetsiifiline robotprotokoll Sildid

URI, REP sildid on rakendatud teatud indekseerija ülesanne, ja mõnel juhul nosnippet, noarchive ja noodpquery mootorid või otsingupäring. Ressursid, mis on märgistatud välistamise siltidega, näitavad otsingumootorid, näiteks Bing SERP-i nimekirjad, neid väliseid linke keelatud URL-idena. Lisaks roomikute direktiividele tõlgendavad spetsiifilised otsingumootorid REP-silte erinevalt. Selle näitena võib näha, kuidas Bing mõnikord loetleb välisviited oma SERP-is keelatud viidetena. Google võtab samad loetelud ja kustutab URL ja ODP viited oma SERPs. Mõte on, et X-robotid tühistaksid META elementidega vastuolus olevad direktiivid.

Mikroformaadid

Teatavad HTML-faktorid tühistavad lehekülje seaded mikrovormingus indeksdirektiivides. See programmeerimismeetod nõuab oskusi ja väga teravat arusaamist veebiserveritest ja HTTP-protokollist. Selle protokolli näide oleks lehekülje X-Robot sildid konkreetse elemendi link, mis ütlevad, et järgige siis rel-nofollow. Robots.txt indekseerijatel puuduvad tavaliselt direktiivid, kuid on võimalik määrata URI-de grupiindekseerijad, millel on serveri külgmised skriptid saidi tasandil.

Mustri sobitamine

Veebimeistrid võivad endiselt kasutada kahte eraldi väljendit, et tähistada lehekülje välistamist. Need kaks märki on tärn ja dollarimärk. Tärn tähistab, et võib esindada mis tahes tähekombinatsiooni. Dollarimärk tähistab URL-i lõppu.

Piiranguteta teave

Robotifailid on alati avalikud, seega on oluline teada, et igaüks võib veebilehele lisatud robotifaili vaadata. Samuti on kättesaadav teave, kust veebimeister blokeerib mootoreid serveris. Need avalikud failid jätavad juurdepääsu privaatsetele kasutajaandmetele, mis võivad sisaldada privaatseid isikuandmeid. On võimalik lisada paroolikaitset, et hoida külastajad ja teised isikud ei saaks vaadata salastatud lehekülgi, mida ei tohiks indekseerida.

Täiendavad eeskirjad

  • Lihtsaid metaroboti parameetreid nagu index ja follow käsk tuleks kasutada ainult selleks, et vältida lehekülje indekseerimist ja roomamist.
  • Ohtlikud robotid ignoreerivad neid käske kindlasti ja on seega kasutu turvaplaan.
  • Igale URL-ile on lubatud ainult üks "disallow" rida.
  • Igale alamdomeenile on vaja eraldi robotite faile
  • Robotite failinimed on suur- ja väiketähelepanu tundlikud.
  • Vahe ei eralda otsinguparameetreid

Parimad SEO-taktikad: Robot.txt

Lehekülje blokeerimine - on mitmeid viise, kuidas takistada otsingumootori indekseerimist ja juurdepääsu veebilehele või domeenile.

Robotite kasutamine lehekülgede blokeerimiseks

See välistamine ütleb otsingumootorile, et ta ei tohi lehte indekseerida, kuid ta võib lehte siiski indekseerida, et seda SERP-nimekirjades näidata.

Indekslehe blokeerimine puudub

See välistamise meetod ütleb otsingumootoritele, et neil on lubatud lehekülge külastada, kuid neil ei ole lubatud selle URL-i kuvada ega lehte oma indeksisse salvestada. See on eelistatud välistamismeetod.

No Following Link blokeerida lehekülgi

See ei ole toetatud taktika. Otsingumootorid saavad selle käsuga endiselt lehekülgedele ligi. Isegi kui otsingumootor ei saa lehte otse jälgida, saab ta juurdepääsu sisule, kasutades brauseri analüütikat või teisi lingitud lehekülgi.

Meta Robots vs. Robots.txt

Näide veebisaidi robots.txt-failist võib aidata programmi protsessi selgitada. Näites blokeerib robotifail kataloogi. Kui konkreetset URL-aadressi Google'is otsida, näitab see, et kataloogist on keelatud 2760 lehekülge. Näites ei ole mootor neid URL-aadresse roomanud, seega ei ilmu need nagu traditsioonilised nimekirjad. Need leheküljed koguvad lingimahla, kui neile on lingid lisatud. Lisaks nende paremusjärjestusele hakkavad nad otsingutes ilmumise tõttu ka populaarsust ja usaldust saama. Kuna need leheküljed ei saa olla saidile kasulikud, sest neid ei roomata. Parim viis selle probleemi lahendamiseks ja selleks, et mitte raisata lehe järjestusjõudu, on mõistlik kasutada üksikute lehtede eemaldamiseks teist välistamismeetodit. Kodeerimine ilmuks järgmiselt: meta tag see meetod näitaks paremat tulemuslikkust kui eelmine meetod.

Felix Rose-Collins

Felix Rose-Collins

Ranktracker's CEO/CMO & Co-founder

Felix Rose-Collins is the Co-founder and CEO/CMO of Ranktracker. With over 15 years of SEO experience, he has single-handedly scaled the Ranktracker site to over 500,000 monthly visits, with 390,000 of these stemming from organic searches each month.

Alusta Ranktracker'i kasutamist... Tasuta!

Uuri välja, mis takistab sinu veebisaidi edetabelisse paigutamist.

Loo tasuta konto

Või logi sisse oma volituste abil

Different views of Ranktracker app