Indexeringsalgoritme

Indexeringsalgoritme, wat is dat?

Google is in relatief korte tijd de meest gebruikte zoekmachine ter wereld geworden. Andere search engines zoals Altavista, Lycos en ook Yahoo! verloren in hoog tempo marktaandeel. Een reden hiervoor is het indexeringsalgoritme van Google.

Het was met name de PageRank formule die zorgde voor betere zoekresultaten die meer relevant waren voor de gebruiker. Rankdex maakt gebruikt van een soortgelijk algoritme, PageRank is hier voor een deel op gebaseerd.

Hoe werkt een indexeringsalgoritme?

Een indexeringsalgoritme verzamelt informatie en verwerkt deze informatie binnen een database. Op basis van filters en parameters wordt een weging gemaakt betreffende de relevantie van een webpagina voor een zoekopdracht.

Het Google algoritme heeft honderden meetpunten. Niet ieder meetpunt heeft dezelfde waarde, Google geeft niet prijs welke meetpunten er precies zijn.

Een aantal criteria zijn wel bekend zoals:

  • De tekst op een pagina.
  • Het gebruik van rich media zoals afbeeldingen en video.
  • De laadsnelheid van een pagina.
  • Het aantal koppelingen vanaf andere websites.
  • De locatie van de gebruiker.

 

Het indexeringsalgoritme wordt continu verfijnd, met kunstmatige intelligentie worden verdere verbeteringen zelfs automatisch doorgevoerd. Naast doorlopende updates zijn er soms ingrijpende updates zoals Penguin, Panda, Hummingbird en de Medic Update.

Hoe kan een crawler informatie ophalen?

De crawlers die nu door het indexeringsalgoritme uitgezet worden zijn veel slimmer dan voorheen. Jarenlang is het gebruik van meta keywords een methode geweest om snel de inhoud van een pagina te bepalen.

Tegenwoordig is de crawler in staat om de volledige pagina te scannen en zelfs een deel van de content te cachen op een server. De webdesigner kan het indexeringsalgoritme een handje helpen door markup toe te passen.

Schema.org is een open standaard voor markup tags die het algoritme helpen informatie te vinden op een webpagina. Denk aan rich media zoals een video, een recept of de klantwaardering. Deze informatie kan vervolgens direct worden weergegeven op de zoekresultaten pagina.

Geen keyword spamming meer

Zoekmachine optimalisatie is een manier om websites hoger te laten ranken in de zoekresultaten. Dit betekent het indexeringsalgoritme doorzien en inspelen op de verschillende parameters.

Als dit volgens de Google richtlijnen plaatsvindt dan is er niets aan de hand, als de regels echter worden overtreden dan wordt dit als Black Hat SEO gezien. Dit kan een penalty als gevolg hebben en zelfs een volledige verwijdering uit de zoekmachine database.

Keyword spamming is hier een voorbeeld van. Voorheen was het mogelijk om het indexeringsalgoritme te misleiden met keywords in de metadata die bedoeld waren om hoger te ranken. Daarom is deze methode van indexering aangepast, nu wordt de werkelijke inhoud beoordeeld.

Database updates

Pagina’s met veel bezoekers zullen vaker bezocht worden door webcrawlers dan minder populaire websites. Dit kan betekenen dat informatie verouderd raakt.

Een webmaster kan een sitemap genereren en deze manueel uploaden om ervoor te zorgen dat zoekresultaten up-to-date blijven. De focus verschuift van technische optimalisatie naar inhoudelijke optimalisatie.

Het indexeringsalgoritme is steeds beter in staat om pagina’s te beoordelen naar een menselijke factor. Als een webpagina geoptimaliseerd wordt voor bezoekers dan zal dit ook het geval zijn voor het algoritme.

Handig artikel voor je?