Das Realtime Penguin Upate von Google

Realtime Penguin: So schützen Sie sich vor Rankingverlusten

Beim Linkaufbau ging es bis April 2012 vor allem um Quantität. Um so viele Backlinks wie möglich aufzubauen, schreckten viele SEOs auch vor Blackhat- und Greyhat-Techniken nicht zurück. Woher die Links stammten, war irrelevant – nur schnell musste es gehen. Dieses Spiel ging lange gut, doch im Hintergrund sammelte Google fleißig Daten für einen neuen Algorithmus, und mit dem ersten Penguin Update wurde das Leben für SEOs endgültig schwerer. Jetzt wurde die Realtime-Version des Algorithmus angekündigt. Wir erklären, was jetzt auf Websitebetreiber zukommt und wie Sie eine Abstrafung vermeiden können.

Die Vorboten der Penguin Updates

Am 19. März 2012 gab es eine erste Warnung seitens Google. Einige große Linknetzwerke in den USA wurden deindexiert (d. h. sie wurden aus der Google-Suche genommen und waren somit nicht mehr auffindbar). Die Netzwerke, die bis dahin gutes Geld eingebracht haben, waren nun wertlos. Zusätzlich verschickte Google in der ersten Jahreshälfte 2012 Hunderttausende Warnungen über unnatürliche Links in der Search Console (ehemals Google Webmaster Tools) an Websitebetreiber. Spätestens jetzt war allen SEOs klar, dass Google dabei ist, weitreichende Änderungen umzusetzen.

Das Penguin Update ist da

Am 24. April 2012 war es dann soweit – Google veröffentlichte Penguin 1.0. Der Penguin Algorithmus ist ein Filter, der dazu dient, Web- und Linkspam aus dem Google Index zu verbannen, um so die Qualität der Suchergebnisse zu verbessern. Google äußerte sich dazu wie folgt:

The goal of many of our ranking changes is to help searchers find sites that provide a great user experience and fulfill their information needs. We also want the “good guys” making great sites for users, not just algorithms, to see their effort rewarded. […] In the next few days, we’re launching an important algorithm change targeted at webspam. The change will decrease rankings for sites that we believe are violating Google’s existing quality guidelines. […] our advice for webmasters is to focus on creating high quality sites that create a good user experience and employ white hat SEO methods instead of engaging in aggressive webspam tactics.
Quelle: Google Webmaster Central Blog

Google weist hier explizit darauf hin, dass Methoden und Taktiken, die gegen ihre Qualitätsrichtlinien verstoßen, mit Rankingverlusten der betreffenden Websites bestraft werden. (Weitere Informationen zu den Qualitätsrichtlinien finden Sie bei Google.) SEOs, deren Seite(n) in den Penguin-Filter gerutscht sind, berichteten von bis zu 80 Prozent Trafficverlust. Für viele Websitebetreiber begann nun das große Aufräumen und die Entwicklung alternativer White-Hat-Strategien für den Linkaufbau.
Bis heute arbeitet Google an der Verbesserung des Penguin-Algorithmus. Im Folgenden eine Übersicht der Updates, die bislang stattgefunden haben.

Die zeitliche Abfolge der Google Penguin Updates

Exkurs: Algorithmus-Update versus Data Refresh

Google unterscheidet grundsätzlich zwischen großen Algorithmus-Updates und kleineren Data Refreshes. Erstere umfassen das Einspielen von neuen Rankings-Faktoren und die Justierung bereits vorhandener Faktoren. Diese Updates werden in offiziellen Ankündigungen mit Zahlen wie 1.0 oder 2.0 versehen. Der Data Refresh stellt lediglich eine Aktualisierung der Daten des aktuellsten Algorithmus-Updates dar und wird mit 1.1 oder 2.1 etc. nummeriert.

Realtime Penguin

Im Dezember 2014 kündigte Google an, dass der Penguin Algorithmus kontinuierliche Updates erhalten soll. Somit sind die bisher sehr unregelmäßigen und großen Updates Geschichte. Wann genau Google die Neuerung umsetzen will, blieb bisher unklar.

Nun hat Google-Mitarbeiter Gary Illyes auf der Search Marketing Expo SMX East verlauten lassen, dass es in naher Zukunft ein neues Penguin Update geben wird. Wahrscheinlich soll es Ende 2015 ausgerollt werden und dieses Mal soll es sich um die Realtime-Version des Penguin handeln. Wenn Google dieses Ziel schaffen sollte, wird das größere Veränderungen im Offpage-SEO bedeuten, als sie die bisherigen Updates mit sich gebracht haben. Was genau passieren wird, kann derzeit nur gemutmaßt werden.

Stärkere Kontrolle der eingehenden Verlinkungen

Eins ist jedoch sicher: jede Website, jeder Online Shop benötigt spätestens jetzt

  • eine fortlaufende Überwachung der eingehenden Verlinkungen,
  • ein fortlaufendes Risikomanagement,
  • regelmäßige Cleanups über Linkabbau und Disavow.

Durch die ständige und konstante Aktualisierung des Penguin-Algorithmus entfallen natürlich große Ankündigungen seitens Google. Somit wird es schwieriger, algorithmische Schwankungen relativ zeitnah nachzuvollziehen. Christoph Cemper, Gründer der Linkresearchtools, vermutet, dass Updates im Realtime-Penguin-Algorithmus nie global auftreten werden, sondern eher branchen-, sprachen- und länderspezifisch.

Der Realtime-Penguin-Algorithmus wird dafür sorgen, dass Websites schneller in den Filter rutschen und somit schneller Rankingverluste erleiden. Andererseits können sie sich aber auch viel schneller davon erholen, sofern ein gutes Risikomanagement existiert. Bisher mussten Websitebetreiber und SEOs mindestens ein Jahr warten, bis das nächste Penguin Update die betroffenen Websites aus dem Filter entlassen hat. Ab Ende 2015 wird dies wohl nur noch wenige Tage dauern.

Negative SEO wieder auf dem Vormarsch?

Der Realtime Penguin begünstigt zwar einerseits schnelle Recoveries, andererseits steigt das Risiko für Negative SEO, also der mutwilligen Schwächung einer Website durch gezielte negative SEO-Maßnahmen.

Google Trends Grafik zu den Suchbegriffen Negative SEO und Google Penguin Update
Ausschnitt aus Google Trends für die Suchbegriffe „Negative SEO“ (blau) und „Google Penguin Update“ (rot)

Wie Google Trends anschaulich zeigt, ist Negative SEO eine Folge der Einführung des Penguin-Algorithmus. Negative SEO umfasst SEO-Maßnahmen, die dazu führen, dass Websites von Google negativ bewertet werden. Die Maßnahmen verstoßen immer gegen die Google-Webmaster-Richtlinien. Eine Offpage-Taktik im Negative SEO ist beispielsweise das automatisierte Aufbauen von Backlinks mithilfe von Linkfarmen inklusive der Verwendung des gleichen Ankertextes. Eine andere Möglichkeit ist das Entfernen von guten Links. Das heißt, jemand scannt das Backlinkprofil der Website, die durch Negative SEO geschwächt werden soll, nach guten und starken Backlinks und lässt diese entfernen. Negative SEO ist immer fremdgesteuert und beinhaltet häufig automatisierte Vorgehensweisen, um größtmöglichen Schaden anzurichten. Wird nun im Offpage-Bereich Negative SEO wirksam, können betroffene Websites aufgrund des Realtime Penguin sehr schnell aus dem Google-Index verschwinden. Auch hier kann nur ein effektives Risikomanagement helfen, die Folgen von Negative SEO zu bekämpfen.

Matt Cutts zu Negative SEO:

Wie erkenne ich, dass meine Seite im Penguin-Filter gelandet ist?

Einen ersten Hinweis auf Abstrafungen liefert immer der Blick in die SEO Tools. Landet eine Website im Penguin-Filter, verliert sie an Rankings, sodass ihre Sichtbarkeit deutlich abnimmt. Fällt ein signifikanter Sichtbarkeitseinbruch zeitlich mit dem Rollout eines Penguin Updates zusammen, besteht mit sehr hoher Wahrscheinlichkeit ein Zusammenhang. Zudem verliert die Website an organischem Traffic, da sie nicht mehr für wichtige Suchbegriffe gefunden wird. Wird ein abrupter und signifikanter Traffic-Einbruch festgestellt, der sich nicht erholt, ist auch dies wahrscheinlich die Konsequenz eines Penguin Updates. Bei der Betrachtung der verschiedenen KPIs muss jedoch immer bedacht werden, dass kleinere Schwankungen in der Sichtbarkeit, in den Rankings und im Traffic normal sind. Gelangt eine Website in die Arme des Penguin, sind die Einbrüche stets massiv.

Wie hole ich meine Website aus dem Penguin-Filter?

Rutscht eine Website in den Penguin-Algorithmus, muss schnell gehandelt werden. Das heißt zusammengefasst:

  • Backlink Audit durchführen
  • Backlinks abbauen
  • Backlinks disavowen

Das Backlinkprofil der betroffenen Website muss eingehend analysiert werden. Dazu ist es wichtig, Backlinks aus so vielen Quellen wie möglich zusammenzutragen. Diese müssen nach den typischen Google-Qualitätsmerkmalen analysiert werden:

  • Linktexte und Verwendung von Money-Keywords
  • Thematische Relevanz der verlinkenden Website
  • Qualität der Backlinks und linkgebenden Website
  • Link-Wachstum
  • Muster, die auf Linkkauf schließen lassen

Ziel des Backlink Audits ist die Identifizierung der Backlinks, die zur algorithmischen Abstrafung von Google geführt haben. Die Backlinks, die als schädlich identifiziert wurden, sollten im ersten Schritt abgebaut, d. h. gelöscht werden. Der Prozess ist zeitintensiv, da hier jeder einzelne Linkgeber kontaktiert werden muss. Nicht jeder Backlink lässt sich über den Linkabbau entfernen. Oft ist unklar, wer der Linkgeber war oder die Linkgeber weigern sich, den jeweiligen Backlink zu löschen. Für solche Fälle hat Google im Oktober 2012 das Disavow Tool gelauncht. Darüber kann jeder Websitebetreiber Backlinks, die zukünftig ignoriert werden sollen, über eine .txt-Datei an Google übermitteln. Sind diese Schritte erledigt, heißt es abwarten. Bisher mussten Websitebetreiber mindesten ein Jahr auf das nächste Penguin Update warten, um mit ihrer Website aus dem Spam-Filter zu kommen. Durch den Realtime Penguin wird sich die Wartezeit auf wenige Tage reduzieren.

Dem Penguin Update vorbeugen

Auch wenn ihre Bedeutung leicht abgenommen hat, zählen Backlinks nach wie vor zu den stärksten Ranking-Faktoren. Nur sollte sich niemand mehr zwielichtiger Methoden bedienen, die lediglich kurzfristigen Erfolg versprechen. Nachhaltigkeit und Qualität sind hier die Zauberworte. Websitebetreiber müssen hochwertigen Content auf ihren Seiten bereitstellen, mit denen der Nutzer etwas anfangen kann, d. h. die Inhalte müssen dem Nutzer weiterhelfen und seine Suchintention bedienen. Da sich auch der beste Content nicht von ganz alleine verbreitet, sollte er mithilfe von nachhaltigem Linkmarketing und Seeding auf relevanten und qualitativ hochwertigen Websites gestreut werden. Zusätzlich helfen nach wie vor der Aufbau und die Pflege von wertvollen Kontakten, Websitekooperationen und Blogger-Relations. Auch White-Hat-Methoden wie

  • Mention Monitoring,
  • Broken Linkbuilding,
  • Link Reclamation

können dabei helfen, starke und vertrauenswürdige Verlinkungen zu erhalten. Zusätzlich sollte jeder Websitebetreiber versuchen, mehr Kreativität in den Linkaufbau zu bringen und neue Wege zu finden, die andere noch nicht gegangen sind.

28. Oktober 2015

Über den Autor

Nicole Krake ist SEO Managerin bei VOTUM. Ihr Schwerpunkt liegt vor allem auf dem Offpage-Bereich. Seit 2015 jongliert sie bei VOTUM nicht nur mit Links, sondern schreibt im Fokus E-Commerce regelmäßig über aktuelle SEO- und Online Marketing-Themen aus der Branche.
Alle Artikel des Autors

  • Nicole Krake
  • SEO-Managerin
  • 030-284-726400