Das Google Panda Update in Deutschland: Auf den User kommt es an

Der Google Panda ist nun schon fast zwei Tage lang in Deutschland, höchste Zeit etwas genauer hin zu schauen. Blättert man durch die Listen der Verlierer und Gewinner (ich empfehle hierzu den Searchmetrics Blog), hat man zwei Eindrücke: Erstens, dass Google (vielleicht ein wenig kompromissloser als im englischen Index) wieder einen guten Job gemacht hat und „dünnen“ Content kräftig aussiebt.

Der zweite Eindruck bringt ein paar Überraschungen zutage. Ich hätte etwa nicht damit gerechnet, dass gutefrage.net so schlecht abschneidet und andererseits ist von yasni.de und 123people doch noch mehr übrig geblieben, als ich dachte. Aber vermutlich sollte man sich einen Gedanken von Marcus Tober (Searchmetrics) vor Augen halten: „Verlust von Sichtbarkeit heisst nicht zwingend Traffic Verlust, denn direkter Traffic, Social Traffic und Super-Longtail Traffic etc. wird nicht mit eingerechnet“, schreibt er im Searchmetrics Blog.

Wie auch immer: Eine der Überraschungen ist sicher der tecchannel.de, ein redaktionelles Angebot, das über 60 % Visibility verloren hat. Warum? Das lässt sich einfach nicht erkennen. Doch solche „Kollateralschäden“ gab es auch in den USA und den UK. Und es wird sich zeigen, ob Google hier noch einmal korrigierend eingreift.

Die Logik des Panda Updates

Ansonsten ist die Richtung sehr klar: Artikelverzeichnisse, Contentagreggatoren, Pseudoinfo-Seiten und magere Personen- oder Preis-Suchmaschinen raus, und redaktionelle Inhalte rein. Wobei die prozentual recht geringen Gewinne etwa von chip.de oder focus.de vermutlich weniger damit zu haben, dass diese nun vom Algorithmus besser bewertet werden. Sondern vielmehr, dass in den Positionen über ihnen Seiten wie suite101.de nun fehlen. Und es ist ja nicht zu übersehen, dass sich auch diese Seiten in der Vergangenheit um die Optimierung auf lohnende Keywords gekümmert haben – also das Spielfeld der Artikelverzeichnisse.

Also: Kommerzielles Zeug raus, redaktionelle Seiten rein? Nein, so einfach ist das nicht. Denn wenn wir uns die Kurven der Preisvergleicher anschauen, dann ist leicht zu erkennen, dass Google hier einen klaren Unterschied zwischen idealo.de und anderen wie ciao.de und dooyoo.de macht.

Ein möglicher Grund hierfür führt uns in gerader Spur auf eine grundlegende Vermutung über die Faktoren im Panda-Update. Nämlich die Einbeziehung von mathematisch fassbaren Faktoren die das Userverhalten betreffen. Auf Alexa kann man einen zwar ungenauen aber in diesem Fall klaren Blick auf die Bouncerate dieser drei Preisvergleiche werfen.

Alles klar? Der Blick auf die Verweildauer, auch ein möglicher Faktor in dieser Richtung ist nicht so glasklar, aber zumindest ist zu erkennen, dass idealo.de die User länger bindet als die anderen beiden.

Das ist nämlich die Botschaft, die sich in den vergangenen Monaten auch in den anderen Panda-Updates gezeigt hat: Google hat überhaupt kein Problem mit stark kommerzialisierten Seiten. Die Frage ist nur, wie die Kommerzialisierung umgesetzt wird. Potentiell „dünnen“ Content haben ja etwa auch die Kleinanzeigenportale, doch die haben sogar recht breit gewonnen. Hier, nebendran, drei Vertreter dieser Kategorie.

Man muss diese Seiten nicht schön finden, und auch die vermarktete Fläche im sichtbaren Bereich ist teilweise immens. Aber ganz offensichtlich stillen diese Portale das Interesse ihrer User, die mal auf der Suche nach günstigen und/oder gebrauchten Waren unterwegs sind. Die Seiten sind für die Nutzer nützlich, und sie verbringen darauf ihre Zeit. Da braucht sich niemand als Layout-Feingeist aufzuspielen 😉

Was uns auch sofort auf den Weg zu eBay bringt. Was macht eigentlich dort die Visibility in Zeiten von Panda? Die Antwort ist besonders interessant, wenn man Subdomains miteinander vergleicht, wie hier geschehen.

Erstens erkennt man hier, dass offenbar die „Einkaufstipps“ stark gelitten haben – die anderen Verzeichnisse aber nicht. Es zeigt aber auch sehr deutlich, dass das Panda-Update durchaus Subdomains unterschiedlich behandelt. Funktioniert das auch mit Verzeichnissen? Ich konnte keine eindrücklichen Beispiele finden. Es scheint also für die Zukunft eine gute Idee zu sein, risikobehaftete Inhalte auf eine eigene Subdomain auszulagern – und besser nicht ins Reich der Haupt-Domain zu nehmen. Allerdings lasse ich mich da auch gerne eines Besseren belehren…

Was lernen wir daraus?

Zusammen gefasst, kann man wohl sagen, dass sich das Pandy-Update hierzulande treu geblieben ist – nur mit wenigen regionalen Eigenheiten. Und blättert man die betroffenen Seiten durch, muss ich auch hier sagen, dass dass die Verlierer im Schnitt einen gefühlt „dünneren“ Eindruck machen als die Gewinner. Doch an einem oder wenigen Faktoren festmachen kann ich den Panda-Zauber nicht. Und immer dann, wenn man glaubt, einen Faktor gefunden zu haben, findet sich schnell ein Gegenbeispiel.

Es scheint sich also wirklich um ein ganzes „Cocktail“ von Faktoren zu handeln, die in einer bestimmten Mischung zum Downgrade führen. Wahrscheinliche Bestandteile des Cocktails sind Boucerate und Verweildauer, extrem starke Vermarktung im sichtbaren Bereich, Content-Qualität und -Strukturierung und wohl auch das Layout. Man sieht bei den Verlierern weniger lesbare Information „above the fold“ dafür viele Ads im sichtbaren Bereich und die Inhalte sind stärker fragmentiert und auch weniger ansprechend gestaltet. Übrigens: Orthografische Fehler halte ich für keinen Faktor, so weit ist Google sicher nicht.

Noch ein bisschen Panda-Praxis

Was soll ein Seitenbetreiber machen, wenn es ihn erwischt hat? Erstens zeigt die Erfahrung der anderen Updates, dass Google ganz zufrieden mit den Ergebnissen ist. Viel Bewegung nach oben konnten wir bei keinem Verlierer finden. Aber es gibt ein Formular, mit dem man sich bei Google auch beschweren kann.  Vielleicht lohnt es sich ja. Ansonsten sollte man trotzdem die betroffenen Subdomains kräftig aufräumen – und ggf. mit den vorhandenen guten Inhalten weiter machen.

Wie funktioniert laut Panda eine gute Contentseite? Schwer zu sagen, selbst Google ist da etwas unaufgeräumt in dieser Frage.  Aber klar ist, dass man neben den weiterhin extrem wichtigen Offpage-Faktoren in Zukunft mehr an die User als an die möglichst schnelle Produktion von Seiten zu denken, deren Inhalt nur in den knappen Zwischenräumen der Banner zu finden ist. Und es scheint eine gute Idee zu sein, Inhalte und Seiten zu produzieren, die dem User  auf den ersten Blick nützlich und vertrauenswürdig erscheinen und ihn dann auch eine gewisse Zeit fesseln. Mit welchen Mitteln man das nun macht, bleibt jedem selber überlassen.

Als erste Reaktion auf das erste Panda-Update (damals noch „Farmer Update“) habe ich mögliche „Messfaktoren“ von Google aufgezählt. Aus heutiger Sicht fehlt mir da die Anzeigenaussteuerung, die werde ich wohl mal ergänzen. Aber ansonsten stehe ich immer noch hinter diesem Artikel und empfehle, sich diese möglichen Faktoren durch den Kopf gehen zu lassen…

GD Star Rating
loading...
Das Google Panda Update in Deutschland: Auf den User kommt es an, 5.0 out of 5 based on 1 rating

Eric Kubitz

Eric Kubitz ist einer der Chefs der CONTENTmanufaktur GmbH . Außerdem ist er Redner auf Konferenzen, Dozent bei Hochschulen, schreibt über SEO (und über andere Dinge) und ist der Chefredakteur des SEO-Book.

More Posts - Website - Twitter - Facebook - LinkedIn - Google Plus

Kommentare (19)

  1. Dennis

    Der Grund, weshalb Personensuchmaschinen nicht so sehr an Sichtbarkeit eingebüßt haben, liegt an der Ermittlung des Sichbarkeitsindexes selbst. Prominente Namen werden sicherlich abgefragt, Lieschen Müller vermutlich nicht. Mangels Wettbewerb für die vielen Millionen Namen werden Personensuchmaschinen auch weiterhin die Suchergebnisse bei Namenssuchen dominieren, insofern dürfte das Panda Update bei denen keinen großen Schaden anrichten.

  2. Marco

    Hervorragende Zusammenfassung! Die Gewinner mit echtem Content stechen wirklich nicht so sehr heraus, wie die massiv abgestraften Preissuchen&Co.

  3. Michael

    Finde das auch schade das es gutefrage.net so erwischt hat, aber was das in besucherzahlen bedeutet, Wissen nur die Betreiber selbst. Ich denke nicht das der Verlust an besucher hier so hoch ist.

  4. Andreas

    Am Wochenende einige Seiten genauer angeschaut, die vom Panda profitiert oder aber einen Tritt bekommen haben. Muss Dir recht geben: wenn man denkt einen Roten Faden entdeckt zu haben, lauert bereits der Gegenbeweis hinter der nächsten Ecke. Aber als Zwischenfazit wirkt das Update untern Strich doch sinnvoll.

  5. Pingback: Lesenswert: Google Panda, Medien & Start-ups, Möbel-Profi, Amazon, Anti-Copycat :: deutsche-startups.de

  6. David

    Bei vielen, die nicht so stark auf der Verliererliste sind wie allen gehofft haben, fehlt Google wirklich meistens einfach eine Alternative.
    d.h. man muss nur schauen, dass man was alle Metrics angeht ein bisschen besser als die Konkurrenz im Keywordbereich ist.
    Das bisschen besser ist aber vor allem seit Caffeine nicht nur Links, sondern auch User Metrics auf Pagelevel.

  7. Magnum

    Ich denke, das gerade der Filter der genannten „Einkaufstipps“ schon händisch erfolgte. Zu viele wie Heise etc. sind auf diesen Zug aufgesprungen. Beispielsweise bei der Suche nach Hardware, wo einem eigentlich selbst mit einem Tripple-Keyword geeignete Informationen in den Results entgegen kommen sollten gelang dies nicht mehr. Ich finde hier bei einigen Tests auf der „ersten Seite“ einen Drittelmix aus „Einkaufstipps“, Direktanbietern und Infos zur Hardware.

  8. Rolf

    Bei den Preissuchmaschinen macht die Auswertung der Bounce.Rate doch keinen wirklichen Sinn, oder? Denn schließlich kann die Suche nach einem Produkt über Google hin zur Preissuma mit einem Seitenaufruf ja schon eine Erfolg sein.

  9. UppS

    @Rolf
    Warum bitte nicht? Wieso sollte da eine hohe Bounce, niedrige Exit anders gewertet werden?

  10. Janosch

    Ein toller Artikel! Sehr informativ! Der Panda ist da und wir müssen mit ihm leben! 😉 Meiner Meinung nach Alles nicht sooooo schlimm.

  11. Pingback: Reaktionen zum Panda Update von Google

  12. Michael K

    Habe selbst ein kleines Fragenportal, das rankte eine Zeit lang nicht so besonders, seit einigen Tagen so gut wie noch nie. Ginge es nach Google dürfte das gar nicht der Fall sein, andere sind gefallen.

  13. Jan

    Wenn cylex.de sogar – trotz massivem DC und thin content – zugelegt hat, kann Google keinen „guten Job“ gemacht haben. Seien wir mal ehrlich: Panda ist viel PR und Kosmetik, minderwertigen Content auf vorderen Plätzen gibt es nach wie vor zuviel.

  14. Pingback: Numbers@STYLIGHT

  15. Schuon

    @Andreas: Ich hab festgestellt, dass man Panda-Abrutsche nicht auf einen einzigen Faktor festmachen darf. Deswegen hab ich wie oben Bounce-Rate mit allen anderen Alexa-Werten analysiert, dann ergibt sich ein recht eindeutiges Bild (http://t.co/udma1mc).

  16. Eric Kubitz (Beitrag Autor)

    Hey Schuon: Ein wirklich guter Beitrag. Und an alle anderen: Lesebefehl!

    eric

  17. Pingback: Google Panda Update – Überlegungen - complex economy GmbH

  18. Pingback: SEOkomm: Jonas Weber zu Panda, Penalties und Reinclusion | SEO Book

  19. Pingback: Panda und Onpage-KPIs | numbers@STYLIGHT

Schreiben Sie einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *