SEO - Duplicate content: de meest gemaakte en afgestrafte fout

SEO Tips

Zoals de titel al zegt, duplicate content zorgt voor veel slechte posities in de zoekmachine resultaten. Er zijn verschillende oorzaken van inhoud die op meerdere websites of pagina’s gelijk zijn. Of deze pagina’s nu op dezelfde server staan of niet. Zoekmachines komen op den duur toch langs. Waar moet je nu eigenlijk op letten?

Allereerst de meest simpele: kopieren van inhoud. Je komt een interessante website tegen (vaak Wikipedia) en besluit de drie kwart van jouw eigen pagina te vullen met 1 op 1 gekopieerde content zonder bronvermelding. Boing, u zakt direct in de zoekmachine resultaten. Tip 1: zorg altijd voor zelf geschreven teksten. Gebruik je teksten van andere sites, plaats dan een duidelijk bronvermelding mét link. Dan is er weinig aan de hand en valt er zelfs te scoren op long tail zoekwoorden. Ondanks dat het gekopieerd is. Reden hiervoor is dat als je nieuwsartikelen kopieert en jouw website is beter geoptimaliseerd dan kan het vaak voorkomen dat je bovenaan komt drijven in de SERP’s (Search Engine Result Pages).

Nu gaan we even kijken naar echte fouten. Dus niet zo zeer kopieren maar daarentegen simpel weg niet goed nadenken of opletten. Er word veel gebruik gemaakt van opensource (gratis) CMS systemen. Vaak zijn pagina’s via meerdere URL’s te bereiken. Voorbeeld:
Pagina 1 is te bereiken via:

- http://website.nl/pagina1.html

- http://website.nl/categorie/pagina1.html

- http://website.nl/archief/categorie/pagina1.html
Zoals u zich kunt voorstellen worden alle drie de pagina’s geindexeerd waarbij de zoekmachine vervolgens denkt dat de site veel pagina’s bevat maar dat dit allemaal gekopieerde pagina’s van elkaar zijn. Zorg er dus voor dat er slechts één van de drie pagina’s geindexeerd word. Dit kan op verschillende manier. Doormiddel van nofollow links of door in de metatags aan te geven dat de pagina waarop de zoekmachine zich bevind niet opgenomen hoeft te worden in de index. Dit doe je door toe te voegen aan je pagina. NOINDEX geeft aan dat de pagina niet opgenomen hoeft te worden. FOLLOW geeft aan dat de links op de pagina’s wel gevolgd mogen worden.

en andere fout die vaak gemaakt word is dat men niet altijd door heeft dat een website bereikbaar is via http://www.website.nl en http://website.nl . Zorg dat je als je je website online zet voor één van de twee kiest anders worden pagina’s wederom dubbel geindexeerd. Oplossing hiervoor is heel simpel. Plaats de volgende regels in je .htaccess bestand:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^voorbeeld\.com [NC]
RewriteRule ^(.*)$ http://www.voorbeeld.com/$1 [L,R=301]

Nu worden alle binnenkomende bezoekers via http://voorbeeld.com doorgeleid naar http://www.voorbeeld.com

Daarnaast hebben we websites die gebruik maken van PHP Session ID’s. Elke nieuw bezoek, hetzij een zoekmachine, hetzij een menselijke bezoeker, krijgt een uniek ID mee wat vaak achter de URL geplakt word. Zo krijg je dus URL’s als:

www.website.nl/pagina.php?id=asd678as7d6asd7as5asd
www.website.nl/pagina.php?id=adba6tdd76twdujhad9a

Je kunt je voorstellen dat elke keer dat de zoekmachine langs komt, zij een voor hem uniek pagina URL tegenkomt en de pagina dus indexeert. Let hier dus op.
Als we toch op de PHP toer gaan, wat dacht je van verschillende parameters in verschillende volgorden:
www.website.nl/pagina.php?para1=aaa&para2=bbb
www.website.nl/pagina.php?para2=bbb&para1=aaa

Dit zal voor de inhoud wederom niets uitmaken maar voor de zoekmachine wel. Die ziet simpel twee verschillende URL’s. Wees hier dus ook consistent in.

Wat we ook steeds meer zien is dat websites print versies aanbieden. Slechts de titel plus tekst waar de pagina omdraait word aangeboden in een print vriendelijke versie. Aangezien de inhoud van een pagina veel meer procentuele omvang heeft ten opzichte van menu’s, footer’s etc. creeer je hiermee ook dubbele pagina’s. Zorg er hier ook voor dat deze pagina’s niet geindexeerd worden door middel van de hierboven geplaatste META tag.

De bovenstaande problemen zijn allemaal redelijk makkelijk op te lossen zoals je ziet. Het lijkt allemaal eenvoudig maar het word maar al te vaak vergeten. Let er dus op. Succes ermee!

Trefwoord:                 

Gerelateerde berichten:
  • Seo Tips
  • Onpage Zoekmachine Optimalisatie voor (Wordpress) weblogs: haal het beste uit uw artikelen!
  • Kijk! Bovenaan in Google!
  • Bobbink SEO Tips – Een serie artikelen over zoekmachine optimalisatie
  • Scripting Bobbink SEO verbeterd


  • 4 reacties op “SEO - Duplicate content: de meest gemaakte en afgestrafte fout”

    1. Jasper Zegt:

      “FOLLOW geeft aan dat de links op de pagina’s wel gevolgd mogen worden” Ik dacht dat we dit inmiddels naar het rijk der fabeltjes hadden verwezen ;-)

    2. Sint Zegt:

      De beste manier om duplicate content binnen een site te voorkomen is door goed na te denken over de structuur van je website. Waarom zou dezelfde pagina via meerdere verschillende URL’s op te vragen moeten zijn, als de functie van de tekst gelijk blijft?

      Je geeft het voorbeeld van een pagina die onder verschillende pagina’s (categorie en archief) beschikbaar is. Waarom zou je dit überhaupt willen? Veel CMS’en en blogsystemen delen dit zo in, terwijl het (ook als je het argument duplicate content weglaat) geen enkele toegevoegde waarde heeft. Een schrijver gaat hetzelfde boek toch ook niet onder vier verschillende titels uitbrengen, omdat hij die andere drie titels toevallig ook zo goed bij het verhaal vond passen?

      Lees ook dit artikel over het vinden van een goede hiërarchische paginastructuur van een website:
      http://www.smedingconcepts.nl/weblog/2008/02/26/waarom-uw-website-een-boom-is-en-niet-een-maisveld/

    3. Paul Bos Zegt:

      Leuk artikel JW! Trouwens ook gefeliciteerd met het feit dat je als nr 1 omhoog in de zoekresultaten scoort als je op “seo weblog” zoekt..

    4. Simple Seo Zegt:

      Leuk en begrijpelijk artikel. Ik vraag me wel af of de zoekmachines niet enigszins rekening houden met parameters en session id’s in de URL’s? De search bots, gekenmerd als speciale bezoekers, hebben toch geen session id nodig.

    Laat een reactie achter

    Berichten RSS