Keyworddichtheid of zoekwoord dichtheid #

Er zijn twee manieren om content te schrijven voor webpagina’s; voor mensen en voor zoekmachines. In praktijk wordt er eigenlijk voor beide doelgroepen geschreven. Dit komt deels door het zoekalgoritme dat nog niet geperfectioneerd is, daarnaast kunnen de belangen ook verschillen. Zo wil een gebruiker van Google wellicht alleen informatie opzoeken over het installeren van alarmsysteem, terwijl een beveiligingsbedrijf juist graag dit karwei uitvoert tegen betaling. Het zoekalgoritme weegt de waarde van een webpagina op basis van honderden criteria waar de keyworddichtheid er één van is. Door diverse verbeteringen in het algoritme door de jaren heen is het belang van keyworddichtheid minder geworden, maar geheel verdwenen is het zeker niet.

Wat is een goede keyworddichtheid? #

Een keyword is een zoekwoord, dit kunnen overigens ook meerdere woorden als groep zijn. Webcrawlers kunnen bepalen waar een tekst over gaat door herhalende woorden op te sporen. Wanneer er bijvoorbeeld regelmatig gebruik wordt gemaakt van het woord “aspirine”, dan is de kans groot dat de pagina over hoofdpijn gaat. De kans dat de pagina over damesmode gaat is dan juist behoorlijk klein. Dit betekent overigens niet dat het woord té vaak moet voorkomen in de tekst. Minimaal een half procent en maximaal twee procent van de tekst is een aantal jaren de norm geweest, na enkele updates in het zoekalgoritme hebben deze percentages niet zoveel zin meer. Er zijn namelijk andere factoren die het belang van de keyworddichtheid hebben vervangen.

Keyword spamming #

Toen SEO experts hadden uitgevogeld hoe zoekmachines de rangorde van zoekresultaten bepalen, begonnen ze te pas en te onpas woorden te gebruiken waar vaak op gezocht werd. Ook wanneer de pagina helemaal niets te maken had met dit onderwerp. Ook werden woorden en termen zo vaak herhaald op de pagina dat de tekst nagenoeg onleesbaar werd. Deze praktijk wordt keyword spaming genoemd. Daar stak Google een stokje voor door websites die hier misbruik van maakte penalties uit te delen met als gevolg een daling in de zoekresultaten. Of zelfs complete verwijdering.

Semantisch zoeken en kunstmatige intelligentie #

Er is een keerzijde van de munt. Als je een pagina schrijft over hoofdpijn dan is het niet zo vreemd om het woord ‘aspirine’ meerdere malen te gebruiken. Om penalties te voorkomen kan het voordeel bieden om synoniemen te gebruiken zoals ‘pijnstiller’ of ‘medicijn tegen hoofdpijn’. Niet alleen verlaag je daarmee de keyworddichtheid, als bijkomend voordeel kan de pagina ook hoger komen te staan op meerdere zoekopdrachten. Het zoekalgoritme is diverse malen verbeterd om synoniemen te herkennen. Zo kan een pagina die geoptimaliseerd is op het woord ‘aspirine’ ook hoog komen te staan wanneer er gezocht wordt op ‘paracetamol’. Het zoekalgoritme let niet alleen op een exact match maar beoordeeld de volledige tekst.

Schrijven voor mensen, niet voor algoritmen #

De kritische lezer zal nog regelmatig pagina’s tegenkomen die volgens de oude regels geschreven zijn, met overmatig gebruik van dezelfde zoektermen en andere verouderde SEO trucs zoals vetgedrukte zoekwoorden. Zelfs wanneer de webcrawlerhiermee wordt ‘gefopt’ zal de bezoeker hier waarschijnlijk minder van gecharmeerd zijn. Een hoge klik ratio vertaalt zich niet altijd in een hogere conversie of een betere omzet. Schrijven voor mensen wordt daarom steeds belangrijker. Werd voorheen de leuze “Content is king” gebruikt, is dit nu “Quality is King” geworden.

Handig artikel voor je?
Updated on augustus 31, 2021