Jeroen is al meer dan 15 jaar betrokken bij Dutchcowboys. Voornamelijk als digital content creator. En dan voor alle titels van The Blogidea Factory. Liefhebber van advertising, entertainment, tech, gadgets, en eigenlijk alles online.
Het auditorium van de Fisheries building van de University of Washington waar de Seomoz Expert Training event wordt gehouden zit zo goed als vol. Het siert SEOmoz dat er naast de obligatoire enorme muffins ook veel fruit en zelfs decaf aanwezig is – ik neem een halve chocolade muffin, daar kom ik de ochtend wel mee door.
Enorme laptops op tafeltjes en ik zie bijna overall Twitter op de schermen staan. Veel leeftijdsverschil in de groep en helaas weinig vrouwen — misschien tien procent van de ongeveer 150 aanwezigen. Pro SEO consultants zijn dus blijkbaar bijna allemaal mannen. Rand Fishkin vraagt naar de verhouding in-house SEO’s versus externe consultants: beide zijn ongeveer evenredig aanwezig.
Het programma ziet er gevarieerd uit maar niet veel onderwerpen die ik niet eerder gezien heb: blended search, duplicates tegengaan en XML sitemaps.
Vandaag op de agenda ondermeer site architectuur, white hat cloaking (wat dat ook mag zijn), hoe zoekmachines spam ontdekken en waar sitemaps (en ik bedoel de XML variant) goed voor zijn: eigenlijk alleen maar hele grote sites.
De intro presentaties vind ik eigenlijk zwak voor ‘expert level’ maar het tempo is hoog en de presentatie van Nick Gerner over zoekmachine spam maakt veel goed. Hij begint zijn verhaal met het feit dat hij geen SEO expert is maar vooral een search researcher. Zijn stelling: door na te denken over hoe een zoekmachine spam tegengaat en dit aan te vullen met onderzoek kan je intelligente conclusies trekken over de grenzen van het toelaatbare.
Volgens hem heeft onderzoek van ondermeer Microsoft en SEOmoz aangetoond dat in de periode van 2002 tot 2008 de hoeveelheid search spam is toegenomen van 7% tot 40% – bijna de helft van het web dus. Dat is een hoop spam als Google zegt dat ze een biljoen pagina’s kennen. Dus is het onmogelijk dat er geen uitgebreid geautomatiseerd proces is om spam te ontdekken. Hoe zou hij het doen?
Statistische analyse laat zien welke websites vreemde dingen doen en Nick laat mooie grafische verdelingen zien. Een overzicht van vreemde zaken die als ‘spammy’ zou kunnen worden aangemerkt:
- lengte van de domein naam, domeinen met veel punten streepjes en nummers
- heel veel uitgaande links
- heel veel inkomende links
- pagina’s met veranderende inhoud maar niet veranderend in aantal woorden
- sites die elke week volledig van inhoud veranderen
Door na te denken over hoe deze factoren in relatie staan tot andere indicatoren zoals autoriteit kan je grijze gebieden ontdekken die moeten worden vermeden.
Nick zet ook de concepten op een rij hoe zoekmachines de waarde van een link kunnen berekenen:
- Pagerank – de bekende die er van uit gaat dat elke pagina een stem kan geven aan een andere
- Trustrank – alleen vertrouwde, speciale sites kunnen een stem geven aan andere
- Anti-Trustrank – slechte sites geven een negatieve stem door die deze stem ook weer doorgeven
Al deze concepten worden volgens Nick in meer of mindere mate gebruikt door de zoekmachines.