Jeroen is al meer dan 15 jaar betrokken bij Dutchcowboys. Voornamelijk als digital content creator. En dan voor alle titels van The Blogidea Factory. Liefhebber van advertising, entertainment, tech, gadgets, en eigenlijk alles online.
Zolang er belastingen worden geheven, moet de belastingdienst een gevecht voeren met slimme burgers en adviseurs die door al dan niet steekhoudende redeneringen proberen om onder een bepaalde belasting uit te komen. De belastingregelgeving is dan ook vergeven van zogenaamde ‘reparetatie wetten’. Het is een niet aflatende wedren tussen wat bedoeld is door de wetgever en hoe de burgers dat willen begrijpen.
Deze rat-race heeft een opvallende gelijkenis met de wedren die de ontwerpers en beheerders van de Google-search algoritmen moeten voeren met slimme (SEO) adviseurs over het in de ogen van Google onterecht toepassen van technieken om de zoekmachine ter faveure van een klant te ‘misleiden’. Waar slimheid eindigt en misleiding begint is een grijs gebied, maar de op misleiding gebaseerde technieken worden ‘black hat’ technieken genoemd. Wordt je door Google daarop betrapt dan volgt een straf: van downgraden van de page-rank tot uitsluiting uit de zoekmachines.
Er zijn nu berichten dat de bedenkers (hackers) van dit soort black hat technieken ook denken te weten hoe je de nieuwe, in het afgelopen jaar geïntroduceerde, algoritmes van google, hummingbird, kunt misleiden.
Uitgangspunt punt van Google bij het presenteren van de juiste organische zoekresultaten is uiteraard de relevantie voor de gebruiker. De stelling van Google is naast de sortering van de populariteit/authoriteit van de webpagina’s, ook dat de pagina’s voor de gebruikers ‘normale’ leesbare pagina’s zijn: snel op het scherm, goede indeling, overzichtelijk, geven (relevante) informatie en hebben een intuïtieve navigatie die niet te diep mag gaan. En dat is ook precies wat de uitgever van die pagina’s natuurlijk voor haar gebruikers wil bereiken. Hier gaan de belangen van Google en de uitgever van de pagina’s hand-in-hand. Als Google probeert black hat technieken als verborgen trefwoorden, oneigenlijke (niet relevante) links en navigatie, inferieure informatie te bestraffen, kunnen wij als gebruikers dat alleen maar steunen.
De discussie met Google gaat natuurlijk over hoe de relevantie en dus de autoriteit van een pagina wordt bepaald. Google hoort daarin transparant te zijn en dat is ze voor uitgevers niet. Noch wat betreft de werkelijke algoritmes als de wijze waarop uitgevers om uitleg en correctie kunnen vragen als er onduidelijke uitkomsten in zoekresultaten worden opgemerkt. Ik heb daar eerder over geschreven: “Don’t be Evil: Unexplianed Google Search Traffic drops“.
In vervolg op de “Hummingbird” update gaat Google voor 2014 geheel op de toer van autoriteit en hoe auteurs de webpagina’s met hun unieke informatie kunnen linken.
Volgens een Google+ pagina van Craig Moore zegt Matt Cutts, de zoekmachine baas van Google er dit over:
“We have been working on a lot of different stuff. We are actually now doing work on how to promote good guys. So if you are an authority in a space, if you search for podcasts, you want to return something like Twit.tv. So we are trying to figure out who are the authorities in the individual little topic areas and then how do we make sure those sites show up, for medical, or shopping or travel or any one of thousands of other topics. That is to be done algorithmically not by humans … So page rank is sort of this global importance. The New York times is important so if they link to you then you must also be important. But you can start to drill down in individual topic areas and say okay if Jeff Jarvis (Prof of journalism) links to me he is an expert in journalism and so therefore I might be a little bit more relevant in the journalistic field. We’re trying to measure those kinds of topics. Because you know you really want to listen to the experts in each area if you can”
Als je het interview zelf met Matt Cutts wil zien ga dan naar youtube (een interview van meer dan een uur).
Als je als Google zo gaat inzetten op de autoriteit van auteurs voor het bepalen van de relevantie van webpagina’s, dan kun je er op wachten dat hackers en ontwerpers van black hat technieken hier iets op gaan verzinnen. Barry Schwarts van Search Engine Roundtable maakt ons opmerkzaam op een discussie op het Forum van Black Hat World, onder de titel van “New Google Tactics” dat er inderdaad wordt gesproken over hoe je fake auteurs een hoge autoriteit kan gaan geven en daarmee de organische resultaten kunt beïnvloeden (author Spam!):
Je ziet op dat forum dan ook discussie als:
Re: New Google tactic
I understood this differently. Its not going to give you the benefit of ranking your articles or posts higher, merely make them tied together and thus easier to find with an advanced search query. Otherwise we could all write a random blog post and sign it as rel author=matt cutts. From what I understand it is just easier to find more content from the same author on Google as it allows Google to identify the author of the content across multiple sites; so if you find something you liked you could find other articles or sites where the same author writes. Obviously if your keyword is your name it would be helpful but I don’t think its designed to allow your article to rank higher just by adding an authority name to the tag.
Natuurlijk heeft Google ook commerciële belangen bij het “schoon” houden van de resultaten van de organische search. Immers: iedereen die buiten de officiële regels om bepaalde webpagina’s online wil promoten op basis van zelf gekozen trefwoorden kan dat natuurlijk door gewoon een advertentie programma voor deze pagina’s in Adwords te beginnen. En dan worden Black Hat technieken wel zeer gelijkend op belasting ontduiking of belastingontwijking: het levert geld op: zowel direct in geen advertentiekosten als indirect door het verleiden van potentiële kopers.
[Afbeelding © Fotolia]