Het wereldwijde web is een collectie van pagina’s die met elkaar verbonden worden via koppelingen ofwel links. Wanneer het niet de homepage betreft maar een subpagina op een domein spreekt men van een deeplink of deep link.

Hoewel deze term binnen HTML  webdevelopment vaak gebruikt wordt, wordt er binnen de HTML standaard geen onderscheid gemaakt tussen de homepage of deep links. Iedere  URL wordt als gelijkwaardig gezien.

Hoewel het technisch mogelijk is om onderliggende pagina’s uit te sluiten van linken, wordt dit door het World Wide Web Consortium sterk afgeraden. Het leggen van koppelingen ligt namelijk ten grondslag aan het functioneren van het internet.

Wanneer plugins of inline toepassingen zoals Flash of AJAX gebruikt worden is het standaard niet mogelijk om naar diepere niveaus te linken. Wanneer iemand bijvoorbeeld op een interactieve Flash site navigeert, is het niet mogelijk om direct een subpagina op te slaan of hier een koppeling naartoe te leggen.

De Flash site bevindt zich op één URL zonder subnavigatie. Later zouden er libraries ontwikkeld worden om dit toch mogelijk te maken. YouTube is een voorbeeld van een website waarbij het wel mogelijk is om een specifieke positie in de video toe te voegen aan de URL. Dit is technisch gesproken geen deeplink omdat de URL gelijk blijft, er wordt wel navigatie informatie toegevoegd aan de koppeling.

Eind jaren negentig had Microsoft een ‘Sidewalk’ dienst waarmee het eenvoudig werd gemaakt op kaartjes te zoeken voor concerten of theatervoorstellingen. In plaats van zelf pagina’s in te vullen werd er een deeplink geplaatst naar een subpagina van Ticketmaster.

Deze organisatie vond dat Microsoft ongeoorloofd gebruik maakte van hun pagina’s, uiteindelijk zou Microsoft een licentieovereenkomst aangaan met Ticketmaster. Het liep anders met Tickets.com, een pagina die ook deeplinks naar Ticketmaster publiceerde. De Rechter vond in deze zaak dat een verwijzing naar een openbare URL niets anders was dan de Gouden Gids die verwijst naar een fysiek adres. Zolang de bron van de pagina zichtbaar blijft is een deeplink met commerciële intentie volstrekt legaal. URL’s zijn niet beschermd onder auteursrecht, wat zeker voor zoekmachines een goede zaak is.

Dit is bevestigd in een zaak uit 2006 toen werd bepaald dat een indexatie site geen regels brak. Alleen wanneer de partij die linkt doelbewust de schijn wekt auteur te zijn van de achterliggende content is er sprake van misleiding en illegale activiteiten.

Robots.txt #

Zoekmachines indexeren standaard alle pagina’s op een domein die vindbaar zijn. Wanneer een aanbieder niet wil dat specifieke pagina’s vindbaar zijn in Google kan dit met een robots.txt worden aangegeven.

Dit wordt regelmatig gedaan vanwege zoekmachine optimalisatie. Bijvoorbeeld publicatie netwerken die content dupliceren, of wanneer subpagina’s teveel op elkaar lijken waardoor ze onderling gaan concurreren in de zoekresultaten.

Het is nog steeds mogelijk om een deeplink te maken, de pagina is alleen ‘onzichtbaar’ voor webcrawlers. Overigens biedt een robots.txt geen garanties, hoewel de meeste zoekmachine aanbieders aangeven deze informatie te honoreren kunnen ze alsnog besluiten om hiervan af te wijken. Met andere woorden; de achterliggende pagina’s zijn niet gegarandeerd uitgesloten van indexatie.

Handig artikel voor je?
Updated on augustus 31, 2021