Het AHLES-SEO- Dilemma

Google verwerkt op dit moment (of het zal er inmiddels wel weer meer zijn) 3.100.000.000 (3.1 biljoen) searches per maand. Verder leren we dat er in Q1 van 2008 nu in totaal 162.000.000 Top Level Domains (TLD) wereldwijd zijn uitgegeven. Als Google zijn resultaat pagina’s volledig ad-random zou samenstellen en niet op basis van relevantie, zou ieder TLD dus door Google gemiddeld 19 keer op de eerste plaats worden vermeld en ongeveer  57 keer bij de eerste drie resultaten.
Dit getal zal moeten worden gecorrigeerd voor TLD die wel gedeclareerd zijn maar (nog) niet actief zijn, respectievelijk een doorverwijzing naar het ” echte”  domein kennen. Ik ken geen cijfers, maar ik schat dat 40% van de TDL in die definitie niet actief zijn. Dan hebben we het over 97.200.000 actieve TDL’s en wordt het getal 96 keer bij de eerste drie resultaten per maand.
Verder weten we dat voor de eerste drie organische resultaten er een CTR geldt van ongeveer 60%. dat betekent dat Google aan deze domeinen dus statistisch gemiddeld 57 keer per maand een bezoeker aflevert af aan een TLD.
Maar Google is geen ad-random zoekmachine, maar levert relevante resultanten, dat wll zeggen dat Google de inhoud relevant houdt voor de gevraagde zoekterm.

Overigens hebben we wel een maat te pakken waarmee we de resultaten van SEO aan kunnen afmeten. Als feitelijk Google stabiel meer dan 57 bezoekers per maand aflevert moet dat statistisch gezien liggen aan Search Engine Optimalization. Dat wil zeggen dat de inhoud van de webpagina relevanter door Google wordt  beoordeeld dan op basis van toeval kan worden verwacht. Dit getal zou wel voor het taalgebied moeten worden gecorrigeerd.

We kunnen we daarnaast  deze eenvoudige maat corrigeren voor de frequentie van de opgegeven  trefwoorden. Met andere woorden om de effectiviteit van SEO te kunnen meten zouden we ook moeten kijken naar de frequentie van de trefwoorden gevonden in de webpagina’s. Hier komen we op het terrein van short-tail en long-tail.

Laten we een test doen. Als we in (Nederlandse talige)  Google “hypotheken”  intypen, dan krijgen we antwoord dat er 5.080.000 resultaten zijn. Dat zijn minder TLD’s omdat sommige TLD twee keer vermeld worden. Als we hierop corrigeren (bijvoorbeeld met een factor .7) dan hebben we 3.5 miljoen relevante domeinen. Als je hier bij de eerste drie staat is dat statistisch een kans van 0,00000084. Nu kijken we naar het gemiddelde maandvolume van het aantal ingetypte trefwoord “hypotheek”: 12.600. Bij een gemiddeld zoekwoord volume van 12.600 betekent dat statistisch een kans is van 1,1% dat je per maand bovenaan komt en dus zo’n 0,6 bezoekers van Google ontvangt. Als dat bijvoorbeeld in werkelijkheid 100 bezoekers zijn is je SEO index: 167 voor dit trefwoord en 100/57 (=  1,75) is de SEO-index vergeleken met het gehele internet.

Maar nu het AHLES-dilemma. SEO betekent dat je de kans dat Google bezoekers aan je aflevert hoger is dan het statistische gemiddelde. Maar als er sites zijn die hoger scoren zijn er dus ook sites die lager scoren. De vergelijking van de werking van SEO is dus principieel relatief. Het dilemma is dat hoe meer sites worden geoptimaliseerd hoe moeilijker het wordt om bovenin te komen en hoe meer de search resultaten naar het statistische gemiddelde zal gaan.  Met andere woorden SEO-bureaus hebben, om resultaat bij hun klant aan te tonen, geen belang er bij dat alle sites van het internet worden geoptimaliseerd. Dat kan – theoretisch – betekenen dat de gezamenlijke SEO-bedrijven er baat bij hebben om afspraken te maken over het volume klanten dat wordt geadviseerd, met nog eens het aantrekkelijke commerciële effect dat de prijzen steeds hoger kunnen worden. SEO bureaus als een soort OPEC dus.