Wie Google zu den Daten für das Penguin 2.0 Update kam

Google hat am 22.05.13 den Penguin 2.0 auf die Webseitenbetreiber losgelassen. Doch wie kam Google eigentlich an die Daten zur Erkennung von SPAMmigen Webseiten? Alles eigene algorithmische Leistung? Hat Die Crowd vielleicht geholfen? So nach dem Wiki Prinzip: Gemeinsames Wissen ist hohe Wissen oder Gemeinsam Hand in Hand gegen SPAM?

Ich habe in einer Infografik mal die markantesten Daten zusammengetragen, aus denen sich meiner Meinung nach interessante Einblicke in Googles Vorgehen ergeben….

Infografik: Wie Google zu den Daten für das Penguin 2.0 Update kam

  • Google verschickt „irrtümmlicherweise“ blaue Briefe

    „Von Januar bis Februar 2012 verschickte Google einige Nachrichten an Webmaster, über eingesetzte Blackhat SEO Techniken. Klarerweise entstanden dadurch einige Unklarheiten, warum und wie diese Nachrichten zustande gekommen waren. Matt Cutts versuchte die Dinge aufzuklären indem er gestand, dass nicht alle der über 700.000 Aussendungen als `unnatürliche Link Warnungen´ versandt wurden“ [seo-united]

  • Panik bricht aus.

    Die Leut suchen wie verrückt nach einer Lösung gegen den blauen Brief (damals war die Meldung auch in Deutschland noch auf englisch — „unnatural incomming links“)

    unnatural incomming links penalty

    Es werden massenhaft Links abgebaut. Eine Google Linknetzwerk-Psycho-Trickkiste

    In einem Netzwerk ist es recht aufwendig alle Knoten zu verifizieren, jedoch um so einfacher plötzlich gekappte Wege zu bemerken — das was mir von der th. Netzwerktheorie noch hängengeblieben ist. So konnte Google recht simpel berechnen welche Webseiten Links verkauft haben.

  • Penguin Update 1.0

    So war es auch abzusehen, dass Google aus den gewonnenen Daten recht fix ein Algorithmus Update zur Bekämpfung von SPAM ausgerollt hat. Die Crowd hat es möglich gemacht. „Mit dem Penguin Update wird das Ziel verfolgt, Webspam in den Surchergebnissen weiter (und radikaler) einzudämmen.“ [Sistrix]

  • Penguin Update #2

  • Die Anfragen nach dem Linkdetox Tool steigen

    Da die Bemühungen im Link entfernen nicht helfen, will die Crowd wissen, welche Links die Bösen sind und welche die guten sind. Die Anfragen nach dem Linkdetox Tool steigen.

    linkdetox suchanfragen

  • Der Wahnsinn bricht aus. Linklöschungen über Linklöschungen.

    „Unglaublich aber wahr: Mittlerweile erhalte ich mehr Mails zum Thema „Links löschen“ als zum Thema „Links tauschen“. Draußen im World Wide Web scheint der Irrsinn ausgebrochen.“ [Frank Doerr]

  • Penguin Update #3

  • Google veröffentlicht das Disavow Tool

    Was kann Google besseres einfallen, als die Crowd selbst Ihre gekauften Links und damit große Linknetzwerke zu verraten? Eben drum veröffentlicht Google ein Tool namens Disavow Tool, mit dem jeder selbst „Links entwerten“ kann.

  • Google verschickt erneut blaue Briefe

    Während bei den blauen Briefen in 2012 97% der Empfänger keine Rankingeinbußen bekamen, wurden diemal gleich Konsequenzen gezogen und viele Rankings purzelten.

  • Wieder steigt die Suche nach Lösungen für die blauen Briefe

    google-blauer-brief-2013

    Edit: Die Grafik könnte den kausalen Zusammenhang nicht korrekt darstellen, da unser Schulsystem auch zur passenden Zeit blaue Briefe verschickt. Danke für den Hinweis Dennis Eipel

  • Wieder werden Links durch das Linkdetox Tool gejagt

    Die Anfrage an das Linkdetox Tool steigt immens. Man könnte fast meinen hier säße eine Lobby dahinter und alles war peinlichst durchgeplant — aber ich lasse jetzt mal die Verschwörungstheorien ;)

    link-detox-tool

  • Penguin Update 2.0

    „Das Google Penguin Update 2.0 ist eine neue, verbesserte Generation der am 24.04.2012 erstmalig für alle Sprachen weltweit ausgespielten Algorithmus-Änderung “Google Penguin Update“, welche das Ziel verfolgt, Webspam in den Surchergebnissen weiter (und radikaler) einzudämmen“ [Sistrix]

    Und TaDa, kurze Zeit später aktualisiert Google seine Algorithmen. Auf Basis welcher Daten wohl? Die Vermutung liegt doch recht nahe, dass die gesammelten Daten zum großen Teil aus den Recionsideration Requests und den Links, die durch das Disavow Tool gejagt wurden stammen müssen…

Mein Fazit zum Penguin 2.0 Update

Letztenendes kam Google dank der Crowd und den „freiwillig“ ausgelieferten Linknetzwerken zu einem großen Menge an Daten, die Seiten identifizierte, die Links gegen Geld oder Backlinks „unter die Leute brachten“. Das Disavow Tool spielt dabei eine sehr wichtige Rolle. Hier können Webmins ganz in Ruhe und „anonym“ Ihre Linkgeber verpetzen ohne dass es jemand anderes außer Google mitbekäme.

Crowdfunding ist das Zauberwort (danke Rene Dasbeck) Google nutzt also mittlerweile die Crowd als Quality-Signal. Sicher nicht ungefiltert, aber ein Signal von vielen wird es 100%ig sein.

Credentials: Vertical Timeline created by Codrops

12 Kommentare » Schreibe einen Kommentar

  1. Danke für die Timeline. Sehr sinnvoll um sich mal rückwirkend die Zusammenhänge anzusehen. Hoffe das dass Thema irgendwann auch vom Tisch ist, und die Linknetzwerke verschwunden sind. Es ist absurd und widerstrebt dem ganzen Prinzip des freien Internets jetzt mit Linkabbau anzufangen und dort auch noch Energie reinstecken zu müssen um gute Rankings zu erreichen. Hä?

    Sorgen müssen sich nur die echten Verzeichnisse. Bin der festen Überzeugung, dass selbst normaler Linktausch nicht abgestraft wird solange der content geil ist und sich der User auf unserer Seite wohlfühlt und freiwillig wiederkommt.

  2. Hi Viktor,

    Ich kann da keinen Kausalen Zusammenhang bei den Suchanfragen auf „blauer brief“ sehen. Der Begriff Wird schon seit 2005 immer in der gleichen Jahreszeit gesucht, was vielleicht auch mit unserem Schulsystem zusammenhängt ;-)

  3. Hi Viktor, habe den Link hier hin aus einem Forum, erst einmal danke für die Infografik. Ich glaube nicht daran, dass Linkabbau, abgesehen von wirklichen Spamverzeichnissen, irgendwie notwendig ist. Die Seiten die beim ersten Update massiv verloren haben, haben sich durch guten Content automatisch wieder erholt und wurden beim letzten Update mehr oder weniger verschont.
    Deine These halte ich für trotzdem relevant. Durch diese „Aktionen“ wurden mehr offensichtliche Linkfarmen enttarnt. Ich denke das der Algo die Power der Farmen einfach auf 0 gesetzt hat und fertig.

  4. Nein, offensichtliche Linkfarmen kennt Google, oder kann sie selbst aufspüren. Das Crowdfunding wird hier angesetzt um die kleinen, versteckten Linkveräußerer zu enttarnen. Denn wenn es um die Existenz geht ist vielen scheiß egal wen sie „verraten“ — auch wenn diese vorher denen gute Dienste geleistet haben!

    Wie findet man eine Nadel im Heuhaufen, wenn die Nadel nicht metallisch ist und mit keinem Magneten oder Spürgerät gefunden werden kann? Man lässt viele auf den Heuhaufen los und lässt den durchkämmen….
    Das hat Google unter vorgehaltener Hand getan ;)

  5. Sehr gute Auffassung zum Pinguin 2.0, ich glaube auch das die meisten Linkfarmen nun entarnt sind, für uns Seos hat das alles vor und Nachteile, ich she in jedem Fall für den sauber arbeitenden Seo nur Vorteile

    MFG

  6. Eine schöne Übersicht. Da bewahrheitet sich wieder ein alter Spruch: Die Masse liegt immer falsch. Doch wie kann die Lösung aussehen? Jeder möchte das beste für sich und so dreht sich die Spirale immer weiter.

  7. „Die Masse liegt immer falsch“ steht im Gericht mit „Die Weisheit der Vielen“. Es gibt also zwei Wege das ganze zu sehen. Google könnte sich des zweiteren durchaus bedienen. Sprich, auch wenn massig disavoved wird, werden sich bestimmte Webseiten häufen.

Schreibe einen Kommentar

Pflichtfelder sind mit * markiert.