Google Strategy - Penguin 2.0 & Co

 

 

Google hat im Suchmaschinenmarkt zwei primäre Ziele vor Augen:

 

1. Dem Kunden die subjektiv bestmögliche Antwort auf seine Suchanfrage zu liefen - Qualität

2. Mit bezahlten Anzeigen weiterhin viel Geld zu verdienen – Profit.

 

 

Jeder Geschäftsmann weiß, dass sich Qualität und Profit zwar gegenseitig bedingen, aber auch miteinander in Kontrast stehen. Ohne herausragende Qualität ist langfristig kein profitables Geschäft zu betreiben, aber Qualität kostet anderseits auch. Zudem nimmt die Attraktivität der Suchmaschinenwerbung ab, mit Zunahme der Qualität der organischen Suchergebnisse – warum sollten die Kunden auf einen Werbelink klicken, der nicht so gut das liefert, was abgefragt wurde?!

Ob nun die zahlreichen Gerichtsurteile und staatlichen Bemühungen vor allen in den USA und der EU ausschlaggebend waren, oder ob es die originäre Überzeugung von Google selbst ist, so zeigen alle Änderungen in den Suchmaschinenalgorithmen in Richtung Qualität.

 

 Was heißt dass für meine Website?

Kurz- und mittelfristig liegt der Fokus, um in den SERP´s (Suchmaschinen Ergebnis Positionierungen) vorne mit dabei zu sein, auf der Backlinkstruktur. Seit einer geraumen Zeit schon, kann Google Linknetzwerke aufspüren und bewerten. Dies hatte gerade bei Penguin 1.0 die Folge, dass viele stark vernetzte Websites in den Rankings abgestürzt waren. Mit Penguin 2.0 wurde unter anderem an der Bewertungsschraube der Linkstrukturen gedreht. Im Mittelpunkt standen dabei themenrelevante Links und Netzwerke zu erfassen. So kam es, dass viele, die durch das unscharfe Penguin 1.0 noch abgestraft wurden, nach Penguin 2.0 wieder besser stehen. Andere dagegen sind noch weiter abgeschmiert.

Fazit: Backlinkquantität bleibt wichtig wie eh und je, Backlinkqualität ist so wichtig wie noch nie!

SEO-Tipp: nicht relevante Links abbauen. Organischer Linkaufbau.

(Mittel- und) langfristig, so beteuert es Google gebetsmühlenartig immer und immer wieder, soll die Qualität des Contents (Inhalte, Inhalte, Inhalte) der alles entscheidende Faktor sein. So lange wir aber noch keine heuristisch arbeitenden Diplom-Akademiker-ComputerBots haben, wird der Suchmaschinenalgorithmus immer noch auf strukturelle und formale Kriterien zurückgreifen müssen, um die Websiterelevanz für die Suchanfrage beurteilen zu können.

Prognose: Penguin 3.0 wird weiter an der Bewertungsschraube stellen und spätestens Penguin 4.0 wird den Major Trend der vergangenen Jahre berücksichtigen: Lokalität! Sprich Erfassung und gute Bewertung von regionalen Linknetzwerken und Backlinks.