Twitter-answer-by-gary-illyes

Verlorene Backlinks – Wo SEO Tools uns täuschen

Im Rahmen eines Kundenauftrags zur Sichtbarkeitsanalyse habe ich mich den Backlinks gewidmet. Ganz speziell den verlorenen Links. Dabei sind mir spannende Dinge aufgefallen.

AHREFS, ein bekanntes und beliebtes Tool zur Analyse von Backlinks, lieferte mir zahlreiche verlorene Backlinks in den letzten Wochen.

Der obige Screenshot zeigt verweisende Seiten mit z.T. sehr ordentlichen Domain Ratings auf Weiterleitungen, bei denen der Link entfernt wurde („Link removed“).

Eine Sichtprüfung des Links jedoch ergab, dass die Verlinkung sehr wohl noch funktioniert. Gemessen mit den Link Redirect Trace, einem Chrome-Plugin Link Research Tools, zeigt die tatsächliche Verlinkung.

LinkRedirectTrace - Beweis der Weiterleitungen

3xx Weiterleitungen und ihre Bedeutung

Der funktionierende Link zeigt eine Weiterleitungen vom Typ 301 und vom Typ 302. Per Definition sind diese wie folgt einzustufen:

301 – Weiterleitungen gelten als „permanent verschoben“. Diese Verlinkungen geben alle Linkpower an den Ziellink weiter.

302 – Weiterleitungen gelten als Status „found“ und sind Weiterleitungen, die kein Rankingpower weitergeben, so schreibt z.B. OnPage.org in seinem Wiki.

 

Mit diesen Informationen über Redirects im Hinterkopf bedeutet das, dass ein Link, der via 302 weiterleitet, keine Rankingpower übergibt und somit wie ein „removed Link“ zu werten ist.

Wenn dem so ist, dann macht ahrefs alles richtig (übrigens auch Majestic und MOZ sehen das so).

 

Widerlegung: 302 übergibt Rankingpower

Leider gibt es zahlreiche Beispiele dafür, dass 302-Weiterleitungen eben doch Rankingpower mit geben. Zu allererst ist da die Analyse meines Kollegen Derek Devlin. Er konnte nachweisen, dass Penalties, also Abstrafungen von Google, sehr wohl weitergegeben werden.

 

Christoph Cemper von Link Research Tools konnte in einem Test nachweisen, welche Weiterleitungen momentan den höchsten Einfluß auf das Ranking in den Suchmaschinen hat. Im Juli 2016 hat Google bestätigt, dass alle 30x-Weiterleitungen auch PageRank vererben.

Auch wenn PageRank tot ist, bedeutet dies, dass die Wertigkeit eines Links weitergegeben wird, egal mit welchem Redirect dies geschieht.

Dazu habe ich mich bei Gary Illyes rückversichert.

Twitter-answer-by-gary-illyes

Generell denke ich: 30x-Weiterleitungen sollten so verwendet werden, wie sie von W3C gedacht waren. Und „found“ ist einfach etwas anderes als „permanently moved“. So sollte das auch für die meisten Suchmaschinen gelten – offensichtlich nicht aber für Google.

Wie Cemper zeigte, sind 302 Redirects im Moment der schnellste Weg bei einem Relaunch zur Backlink-Erhaltung.

Wenn Google sowohl die Abstrafungen als auch die Rankingpower be 30x-Weiterleitungen weitergibt, müssen die Ergebnisse von ahrefs, MOZ und Majestic differenziert betrachtet werden.

Und dies ist – wieder einmal – der Beweis für die alte SEO-Weisheit „Verlasse dich niemals auf ein einziges Tool“.

 

Weiterführende Informationen:

301 Weiterleitungen in großen htaccess Dateien – Falsche Empfehlung

Link Building

Verlasse dich nie auf nur ein SEO-Tool

 

Black Hat SEO vor dem Aus

Im September 2014 bereits berichteten Betreiber von privaten Blog-Netzwerken (PBN) darüber, dass Google damit begonnen hat, diese Netzwerke zu deindexieren.

Damit läutete Google konzentrierte Maßnahmen gegen Black Hat SEO ein. Laut Search Engine Roundtable sind bereits tausende PBNs abgestraft. Zahlreiche Betreiber solcher Sites berichten bereits über den Niedergang ihrer Netzwerke. Ist Black Hat SEO damit vor dem Aus?

Black Hat SEO – Was ist das?

Der Begriff Black Hat kommt aus der Hacker-Szene. Ein „Black Hat“ Hacker ist ein Hacker, der Techniken aus niedrigen Beweggründen nutzt, um Computer zu manipulieren, um damit an Daten zu kommen, die er verwenden kann (Quelle: Moore, Robert (2005). Cybercrime: Investigating High Technology Computer Crime. Matthew Bender & Company, Seite 258).

Black Hat SEO sind demzufolge alle Maßnahmen, die aus dem Grund durchgeführt werden, eine Website mit allen Mitteln kurzfristig auf Platz 1 für ein bestimmtes Keyword zu platzieren.

Was sind PBN?

PBN oder Private-Blog-Networks (private Blog Netzwerke) dienen genau einem solchen Black Hat Zweck. Ein Black Hat SEO kauft viele Domains mit unterschiedlichen Names und Orts-Angaben (sprich: Er verwendet zahlreiche unterschiedliche „Handles“, die nur den Zweck haben zu verschleiern, wer tatsächlich der Besitzer einer solchen Domain ist). Dies erfolgt, damit Google nicht nachvollziehen kann, wer hinter den Domains eigentlich steckt. Durch den Aufkauf abgelaufener Domains mit einem hohen Wert für SEO (gute Backlinks bzw. insgesamt gute Verlinkung und entsprechender Reputation) werden dann weitere Domains zugekauft und in das PBN integriert. Es werden Seiten angelegt, die so untereinander verlinken, dass eine bestimmte Seite gewinnbringend und kurzfristig im Ranking auf die Top-Position manövriert werden kann.

Bei diesen Domains wird ganz konkret das Impressum verschleiert, damit Google hier keinen Zusammenhang zwischen den Domains und der eigentlichen Zielseite erkennt. Zudem werden die Domains bei unterschiedlichen Hostern betrieben, um auch eine räumliche Trennung darzustellen.

Unlängst hat der Gewinner des „größten SEO Wettbewerbs“ von XOVI mit genau diesen Methoden den Wettbewerb und damit einen Smart gewonnen. Noch (25.09.2014) hält sich Rankboost ganz oben mit einem Angebot, das inhaltlich komplett deplatziert ist. Andere Teilnehmer, die über viele Wochen große Energie in inhaltlich hervorragende Seiten investiert haben, wurden mit einer solchen Maßnahme brüskiert.

Solche PBNs dienen also dazu, den Google Index zu spammen, mit informationen

Was unternimmt Google gegen Black Hat SEO?

Bislang war Google ziemlich machtlos gegen ein solches Vorgehen und solche Verschleierungsmethoden boten wenig Möglichkeiten, diese Seiten zu erkennen.

Wenn ein PBN ordentlich aufgestellt ist, dann wird das Impressum „vergessen“, denn wenn es als Bild dargestellt ist, kann es Google lesen. Also kann Google Seiten ohne Impressum identifizieren und ggf. abwerten. Ebenso Seiten mit einem Bild-Impressum.
Schwieriger wird es, wenn ein bewusst gefälschtes Impressum verwendet wird.

Über kurz oder lang muss sich die Black Hat SEO-Gemeinde neue und andere Methoden ausdenken. In jedem Fall müssen diese Methoden überdacht werden, denn Google schläft nicht.

Die Strategie von Google ist klar erkennbar:
Der Pinguin schaut nach Links aus Netzwerken.
Panda 4.0 bewertet Inhalte.
Payday Loan 2.0 rechnet mit besonders „spammigen“ Suchanfragen
Erst kürzlich gab es diese entsprechenden, umfangreichen Updates (Mai 2014).
Dann muss man die Korrekturen an Verlagsseiten (Reduzierung von Pagerank, um diese nicht (mehr) so wichtig darzustellen für Backlinks) als Maßnahme zur Vorbereitung für einen Schlag gegen die PBNs sehen.
(Übrigens: Wer den ganzen Zoo von Google kennenlernen will, also sehen möchte, welches Tier für welches Update steht, der findet hier einen ordentlichen Artikel darüber).

Wer hat Nutzen aus den Google Maßnahmen?

Die Nutznießer dieser Abstrafwelle werden Webseiten sein, die „ordentliches“ SEO betreiben. Es wird dabei spannend anzusehen sein, wie sich die Maßnahmen auf konkurrierende Webseiten auswirken. Wenn Googles Maßnahmen aufgehen, dann müssen diese eine bessere Position erzielen. Bislang waren Websites, die konkret auf Manipulation verzichten und gute Inhalte liefern, gegenüber Black Hat SEO benachteiligt.

Wenn es Google gelingt, diese Maßnahmen auch auf andere Sprachen umzusetzen und weiterhin ein deutliches Zeichen gegen PBNs setzt, gewinnen die Webseiten, die von SEOs optimiert werden, die auf starke Inhalte setzen – aber auch jeder Nutzer der Google-Suchmaschine, der bessere Inhalte geliefert bekommt. Bleibt die Hoffnung, dass Google bei diesem Experiment keine Kollateralschäden unterlaufen und man bald von zahlreichen zu Unrecht abgestraften Netzwerken lesen muss.

 

2016: Das Ende von Black Hat?

Mit Google Realtime Penguin (Google Penguin 4.0) hat Google das Ende von Black-Hat-SEO eingeläutet – so dachte man zunächst. Tatsächlich gibt es Anfang 2017 noch immer viele Branchen und Bereiche, die sehr wohl mit Black Hat Techniken funktionieren.

Im Gegenteil: Penguin 4.0 bietet sogar die Möglichkeit, gezielt negative SEO-Attacken auf Domains, bestimmte Seiten oder Verzeichnisse zu starten. Diese werden – danke Penguin 4.0 Algorithmus – auch gar nicht mehr so schnell erkannt.

Penguin 4.0 läutet somit die dringende Notwendigkeit für Link Risk Management ein.

 

Weitere Informationen:

Ranking Faktor Backlinks

Realtime Penguin 4.0 – Das aus für Black Hat oder gehts jetzt erst richtig los?

 

Google Penguin Realtime with real wine

Google Penguin 4.0 – Chancen und Möglichkeiten


Google Penguin 4.0 – Google Realtime Penguin ist live!

Google Penguin Realtime with real wineGoogle aktualisiert den Penguin-Algorithmus. Dieser wird ab sofort in Echtzeit in den Kern des Suchalgorithmus eingebaut. Das bedeutet zwar nicht, dass der Effekt sofort in der nächsten Sekunde sichtbar wird. Aber mit jedem Crawl, z.B. schon am nächsten Tag. (Quelle: https://webmasters.googleblog.com/)

Fast zwei Jahre warteten Webmaster auf dieses Update, um betroffene Webseiten ganz zu rehabilitieren. Es wurde auf Ende 2015 angekündigt, verschoben auf 2016. Jetzt ist es da: PENGUIN 4.0. Gleichzeitig ist das auch das letzte Penguin-Update. Denn der Pinguin ist nun fester Bestandteil des Kerns des Google-Algorithmus.

Bei der Einführung im Jahr 2012 wurde noch ein periodisches Update betrieben. Wurde eine Webseite als Spam markiert, so dauerte es bis zum nächsten Update, bis eine bereinigte Internetpräsenz sich wieder erholen konnte. Das konnte dauern. Zum letzten Update waren es zwei Jahre (Oktober 2014 – September 2016).

Google Abstrafungen in Echtzeit

Mit dem Echtzeit-Filter bewertet nun Google die Seiten bei jedem Besuch durch den Googlebot und die Aufnahme bzw. Prüfung in den Googleindex. Alle Seiten werden also permanent vom Filter beurteilt und in diesem Rahmen abgestraft oder rehabilitiert. Kurz nachdem die Seite neu durchsucht wurde, ist das Ergebnis sofort sichtbar.

Das besondere nun: Der Penguin wird nicht mehr nur die ganze Seite markieren, sondern wirkt seitenspezifisch. Das bedeutet, wer schlechte Links auf eine starke Unterseite des Konkurrenten setzt, kann die Positionierung in den Suchergebnissen dieses Teilbereichs eines Internetauftritts sehr schnell abstürzen lassen. Aber auch umgekehrt: Wer sein Linkprofil im Auge hat, kann sich schnell erholen. Und mit dem Link Detox Boost von Cemper kann die Erholungsphase wesentlich beschleunigt werden.

Erschwerend für das Link Risk Management kommt noch hinzu, dass neben den Seiten auch Domains, Ordner, Keywords … betroffen im Algorithmus geprüft werden.

Spätestens jetzt wird klar: Die Wichtigkeit, das eigene Linkprofil im Blick zu haben, war noch nie so lebenswichtig wie jetzt. Christoph Cemper, CEO von LinkReasearchTools empfiehlt mindestens eine wöchentliche Prüfung, „in der Zukunft womöglich öfter.“ (Quelle: Newsletter LRT)

 

 

Auswirkungen von Google Penguin Realtime:

  • Betroffene Seiten werden abgestraft und fallen im Ranking ab, nicht mehr zwingend die gesamte Domain
  • Betroffene Seitenbereiche können komplett abfallen, wenn der Google Filter hier schlechte Links sieht. Das bedeutet, dass unter Umständen ein gesamter Leistungsbereich eines Unternehmens aus den Suchergebnissen verschwinden kann, während andere Bereiche nach wie vor sichtbar und auffindbar bleiben.
  • Penguin hat nun Auswirkungen auf alle Ebenen wie Domänen, Ordner, Unterordner, Seiten und auch Keywords und Keyword-Gruppen. Vermutlich werden exzessive Keywords herausgefunden und eine Seite so isoliert werden – oder eine komplette Domain ist einfach nicht mehr auffindbar für bestimmte – wichtige – Keywordgruppen
  • Es wird schwieriger werden, kleine Penguin-Abstrafungen zu identifizieren

 

Bewertung von LinksFolge daraus: Gerade dann, wenn gut funktionierende Teilbereiche einer Website optimiert wurden, ist es wichtig für die unterschiedlichen Teilaspekte eines Internetauftritts regelmäßig einen  Competetive Link Detox durchzuführen. Das bedeutet, man setzt das eigene toxische Risiko ins Verhältnis zu den Mitbewerbern. Für jede Keyword-Gruppe, für jeden Teilaspekt einer Leistung.

Wer z.B. Webhosting anbietet, aber auch Webdesign, der muss seinen Internetauftritt und die Teikaspekte ins Verhältnis setzen zu den Mitbewerbern für das Thema Webhosting und genauso für das Thema Webdesign.

Ebenso muss ein Detox auf jeden Unterordner erfolgen, was die meisten Tool-Hersteller derzeit (noch) vor Probleme stellen wird. Und dann ab durch den Detox-Boost.

Das Google Penguin-Update wird jetzt ausgerollt. Derzeit crawlt Google das gesamte Internet und alle Seiten weltweit. In spätestens zwei Wochen werden alle Rankings „Google-Penguinifiziert“ sein. In dieser Zeit kann es zu starken Schwankungen in den Suchergebnissen kommen, die unbedingt analysiert werden müssen.

 

Mögliche Szenarien:

  • Backlinks, also Seiten, die auf Ihre Webseite verlinken, werden von Google abgestraft und Sie erfahren es nicht. Diese bislang guten Links gelten jetzt als schlechte Links und können Ihre Position in Google massiv bedrohen.
  • Ein Mitbewerber setzt auf wichtige Bereiche Ihrer Webseite schlechte Links. Ihre Webseite stürzt in den Suchergebnissen ab oder entwickelt sich trotz Optimierung nicht nach vorne – Ihnen fällt das nicht auf, denn von den Links wissen Sie nichts. Die schlechten Links sorgen dafür, dass ein wichtiger Ordner Ihres Angebots nicht mehr in Google gefunden wird.
  • Ein Mitbewerber überoptimiert Ihre wichtigen Dienstleistungen. Er setzt allso massiv viele Links zu einer Keywordgruppe, die für Sie wichtig ist. Ihre Seiten stürzen ab, trotz OnPage-Optimierung.  Da nicht die ganze Domain vom Google Penguin bestraft ist, sondern nur einzelne Keywords, bemerken Sie es nicht.

Das neue Google Update öffnet nicht nur ein neues Kapitel im CyberCrime, es birgt auch die Möglichkeit, gegen Abstrafungen sehr schnell vorzugehen. Denn wer sein Link-Profil im Blick hat, der kann schnell reagieren.

 

Was ist Link Risk Management?

LinkRiskMangement ist die Durchführung proaktiver Link Audits und Disavows, also der Abwertung schlechter Links. Eine Link Audit sollte künftig wesentlich häufiger erfolgen. Die Empfehlung lautet wöchentlich.

Zum LinkRiskManagement gehört dabei

  • die Beobachtung der eingehenden Links,
  • die regelmäßige Bewertung dieser Links,
  • das Eliminieren toxischer Links
  • und die schnelle Rettung der Website – also Ihres Geschäfts – im Desasterfall.

 

Grundsätzliches zu Links:

  • Ein Link kann helfen oder schaden – vor der Einführung des Penguinalgorithmus war es gut, viele Links zu besitzen. Je mehr, desto besser. Negative Effekte von Links gab es nicht.
  • Links sind neben Content das wichtigste Signal für eine Positionierung in Google.
  • Das Linkprofil muss zur Branche passen.

 

Besonderheiten bei der Analyse des Backlinkprofils:

Es muss immer das ganzes Backlink Profil analysiert werden – wichtig sind die Verhältnisse. Es wäre nicht ausreichend, such auf den Informationen azs der Google Search Console auszuruhen. Diese zeigen nur einen Bruchteil der Links an. Wir prüfen derzeit neben den Search Console Informationen im Rahmen eines Audits 24 weitere Quellen.

 

Historische Penguin-Updates

Das sind die bisherigen Penguin-Updates und deren Auswirkungen

Penguin 1.0 am 24. April 2012 (Auswirkungen auf ~ 3,1% der Anfragen)
Penguin 1.1 am 26. Mai 2012 (Auswirkungen auf weniger als 0,1% der Anfragen)
Penguin 1.2 auf 5. Oktober 2012 (Auswirkungen auf ~ 0,3% der Anfragen)
Penguin 2.0 am 22. Mai 2013 (Auswirkungen auf 2,3% der Anfragen)
Penguin 2.1 auf 4. Oktober 2013 (Auswirkungen auf rund 1% der Anfragen)
Penguin 3.0 am Oktober 17, 2014 (Auswirkungen auf rund 1% der Anfragen)
Penguin 4.0 + Echtzeit am 23. September 2016

SEYBOLD ist zertifizierter Partner der LinkResearchTools

(Bildquelle: LinkResearchTools)

 

 

Google Redirects

301 Weiterleitungen in großen htaccess Dateien – Falsche Empfehlung

Gary Illyes, Webspam Team von Google, hat kürzlich auf die Frage, wie man mit 301-Weiterleitungen in großen .htaccess-Dateien umgehen soll, damit geantwortet, dass man diese Weiterleitungen löschen kann, sobald Google die Seiten im Index hat.

Best Practice 301

Der Server wird durch die Abarbeitung eines großen htaccess-Files verlangsamt und Servergeschwindigkeit ist ein wichtiger Aspekt im Ranking. Aus diesem Grund wäre das Eliminieren der Weiterleitungen absolut machbar.

Ein kapitaler Fehler, denn nicht berücksichtigt sind die ganzen guten Links, die bestehen. Auf den Seiten der Unternehmen, die auf eine solche „alte“ Seite verlinken, ist nichts geändert, nur weil Google seinen Index aktualisiert hat. Werden diese ganzen Links jetzt ungültig, weil diese auf Seiten verweisen, die es nicht mehr gibt (404), dann fehlen der Unternehmensseite (also dem Empfänger) wichtige Links. Das Ranking kann abstürtzen.

Und Links sind das wichtigste Kriterium im Ranking innerhalb von Google.

Der Tipp von Google ist in diesem Fall also eher eine kurzfristige Betrachtungsweise, die mehr Schaden verursacht, als Nutzen und zeigt noch deutlicher, weshalb es erfahrene Dienstleister in Unternehmen braucht, die solche Problematiken umsetzen.

 

Christoph Cemper, CEO LinkResearchTools hat ein informatives Video dazu erstellt, dass die Problematik schildert.

 

Google Redirects

 

siehe hierzu auch:

http://www.thesempost.com/best-practices-for-301s-in-large-htaccess-file/

 

Wichtige Rankingfaktoren

Ranking Faktor Backlinks

Bei der Optimierung einer Internetseite stellen sich immer wieder die selben Fragen. Letztlich wird jede Seite dafür geschrieben, dass sie gelesen wird. Aber um sie lesen zu können, sollte sie zunächst gefunden werden.

Zentrale Aufgabe also:

Ranking Faktor Backlinks – Was sind die wichtigsten Ranking-Faktoren in Google

Es gibt einige gute Artikel zu diesem Thema im Web, zu vorderst natürlich die jährlichen Searchmetrics Ranking Signale oder die sehr umfangreichen Ranking-Informationen von MOZ. Ganz spannend, und mir die letzten Tage in die Hände gefallen, ist die Analyse von Brian Dean, der 1 Million Suchergebnisse analysiert hat, um die Informationen von MOZ oder Searchmetrics zu bestätigen.

Wichtige Rankingfaktoren für Sichtbarkeit des Webauftritts

Trägt man alle Informationen zusammen, so ergibt sich ein klareres Bild darauf, welche Inhalte in den Suchergebnissen von Google vorne liegen.

Wichtige Rankingfaktoren

Quelle: Moz.com

  1. Backlinks bleiben extrem wichtiger Google Ranking Faktor. Die Anzahl von Domains, die zu einer Seite verlinken, das Ranking deutlich mehr bestimmen,  als jeder andere Faktor.
  2. Die Link-Authority einer Website (gemessen mit Ahrefs Domain Rating oder den LinkReaserachTools) beeinflusst ein höheres Ranking.
  3. Inhalte, die als zum Thema relevant bemessen werden (z.B. durch MarketMuse gemessen), werden besser bewertet, als Inhalte die ein Thema nur oberflächlich behandeln. Blogartikel, die ein einzelnes Thema abdecken haben somit eine höhere Chance auf ein Ranking in den Suchergebnissen.
  4. Verbindung zwischen dem Suchergebnis und dem daraus resultierenden Traffics auf eine Website ist ein wichtiges Signal.
  5. Basierend auf den Suchergebnisdaten von SEMRush, Xovi und Searchmetrics zeigt sich, dass längere Inhalte in Googles Suchergebnissen besser platziert sind.  Durchschnittliche Wortanzahl der Webseiten, die auf der ersten Google Suchergebnisseite platziert sind, beträgt >1800 Worte.
  6. HTTPS Seiten werden bevorzugt  auf den ersten Seiten der Google Ergebnissliste.
  7. Die Verwendung von Microdaten (Schema.org) sorgt nicht zwingend für ein besseres Ranking, zeigt aber in manchen Branchen einen Mehrwert durch zusätzliche Informationen.
  8. Inhalte mit mindestens einem Bild sind besser gelistet, als Inhalte ohne Bilder.
  9. Keyword-Optimierung im Titel-Tag, also dem Titel einer Webseite hat einen kleinen kleinen Einfluss auf das Ranking. Searchmetrics bestätigt in deren Dokument einen leichten Rückgang dieses Faktors. Gleichzeitigt ist die Keyword-Optimierung der H2-Überschrift wichtiger geworden.
  10. Die Geschwindigkeit einer Website ist ein signifikanter Faktor. Basierend auf Informationen von Alexa, werden schnell ladende Seiten besser in den Rankings platziert, als lahme Schnecken.
  11. Exakte Übereinstimmung von Suche und Webseite, also wenn die exakte Suchphrase auch auf der Zielseite vorkommt, scheint einen starken Einfluss auf die Rankings zu haben.
  12. Webseiten mit niedriger Absprungrate haben höhere Rankings. (Quelle: SimilarWeb,  Cyrus Shepard (MOZ)
  13. Ein Video auf der Seite ist ein postives Rankingsignal.
  14. Verwendung von Marken, die dem Unternehmen zugeordnet werden, helfen zur Verbesserung des Rankings. Eigene Marken stärken dabei die Positionierung.

Es wird daraus sehr deutlich: Es geht nicht ohne Links und der Inhalt sollte eine entsprechende Relevanz zeigen. Ein Ranking einer etwas schlechter OnPage-Optimierten Seite mit top Inhalt und guter Verlinkung ist besser platziert, als ein schlechter recherchierter Artikel auf einer Top-OnPage-Optimierten Website mit weniger Verlinkungen.

Quellen:

  • http://www.searchmetrics.com/de/knowledge-base/ranking-faktoren/
  • https://moz.com/search-ranking-factors
  • http://backlinko.com/search-engine-ranking
  • https://moz.com/blog/single-best-seo-tip-for-improved-web-traffic
Backlinks Krankenhaus Gewinner und Verlierer

Wichtigkeit von Links am Beispiel Kinderarzt

Mit dem Rollout des Google Realtime Penguin Updates werden Verlinkungen zur eigenen Website immer wichtiger. Obwohl zum Zeitpunkt des Schreibens dieses Artikels noch kein offizielles Statement von Google bezüglich der Implementierung des Algorithmus-Updates erfolgte, ist deutlich sichtbar, dass Google bereits umfangreich testet.

Weltweit betrachtet sind die Verschiebungen der Rankings über alle Keywords derzeit am höchsten, wenn man die letzten beiden Jahre analysiert.

Höchste Bewegung in den Keywords der letzten zwei Jahre

Höchste Bewegung in den Keywords in Google weltweit innerhalb der letzten zwei Jahre, Quelle: Algoroo

Auch wenn man in Deutschland die einzelnen Branchen betrachtet, wird erkennbar, dass Google das Algorithmus-Update in den verschiedenen Nischen testet. Ganz speziell erfolgt dies in der Feiertagszeit. Vom 20.12. bis zum 11.1. ist in der Saison 2015/2016 der ideale Zeitpunkt, umfangreiche Tests durchzuführen, da in dieser Periode über alle Branchen Urlaubszeit ist.

Während Hacker sich diese Zeit zu nutze machen, um gezielt anfällige Websites zu übernehmen und für Spamzwecke zu missbrauchen, nutzt Google in dieser Urlaubssaison die Abwesenheit für umfangreiche Tests in den verschiedenen Nischen.

Update: 12.01.2016: Es handelte sich um ein Core Algo Update, also um ein Update

Links: Darauf kommt es an

Nimmt man sich die Gewinner und Verlierer bei den Tests im Bereich Gesundheit vor, gibt es mehrere Auffälligkeiten.

Google Realtime Penguin Test in Deutschland im Bereich Gesundheit

Test des Google Penguin Realtime Algorithmus im Bereich Gesundheit

Auffällige Bewegungen sind am 18.12., am 29. und 30.12. und am 09. und 10. Januar erkennbar. Wochenden und Feiertage.

Auswirkungen sind sowohl bei kleinen Webseiten erkennbar, als auch von namhaften Kliniken.

Kleine Unternehmen: Beispiel Kinderarzt

Gerade für das Keyword „Kinderarzt“ gibt es starke Bewegungen. Erkennbar ist, dass Kinderärzte auf der einen Seite massiv abfallen, gleichzeitig aber auch einen besonderen Schub verzeichnen.

Am 10. Januar verzeichnet SERP.WATCH die folgenden Gewinner und Verlierer

Gewinner und Verlierer Kinderarzt Webseiten

Gewinner und Verlierer am 10. Januar. Quelle: SERP.WATCH

Was unterscheidet diese Kinderärzte?

Auf den ersten Blick sehen beide Webseiten „nett“ aus.

Vergleich der Wwebsites Onpage

Gewinner und Verlierervergleich bei Kinderarzt – Webseiten am Beispiel

Kinderarzt Balzer hat eine grafische Navigation, die Kinderärztin in Zehlendorf setzt auf klassische, einfache HTML Navigation.

OnPage SEO: Optimierte Website

Im OnPage Vergleich des Tools XOVI ergeben sich folgende Qualitätsmerkmale:

OnPage Analyse Kinderarzt Keyword

OnPage Analyse mit XOVI

Der Tagesverlierer in den Suchergebnissen verfügt über eine Top Serverarchitektur, optimale Bildgrößen und ALT-Image-Tags, sehr gute Verlinkung der internen Dokumente, gut ausgefüllter Meta-Daten und praktisch keine Verlinkungen nach extern.

Der Tagesgewinner hat furchtbar schlecht optimierte Inhalte, eine ordentliche Serverleistung, halbwegs gute Meta-Daten ausgefüllt und eine gute Verlinkung interner und externer Quellen.

Backlinks der Gewinner und Verlierer

Betrachtet man die Backlinks, dann zeigt sich folgendes:

Backlinks Kinderarzt Gewinner und Verlierer

Backlinks der Kinderarzt Websites

In diesem Vergleich zeigt sich, dass die Gewinnerwebsite die besseren Backlinks besitzt, nicht nur mehr Links, sondern vor allem bessere. Das wird deutlicher, wenn die Backlinks Profile angeschaut werden.

Nutzen also die besseren Links und die bessere Verlinkung nach extern? Ich denke ja.

Schaut man sich die anderen Gewinner und Verlierer bei den Kliniken an, zeigt sich folgendes:

Backlinks Krankenhaus Gewinner und Verlierer

Backlinks der Krankenhaus Websites

Die Uniklinik hat nicht nur mehr, sondern auch deutlich stärkere Links.

Fazit: Es kommt auf die Qualität der Links an

Kinderarzt Balzer hat sich um alle Aspekte gekümmert, allerdings hat er viele Baustellen, die das Tool Xovi gar nicht anzeigt.

Zum Beispiel verwendet er auf jeder Seite den gleichen Meta-Description-Inhalt „Herzlich Willkommen in unserer Praxis. Wir möchten, dass Ihre Kinder und Sie sich in unserer Praxis wohlfühlen. Dafür haben Sie auf diesen Seiten die Möglichkeit, uns und unsere Tätigkeit vorab kennenzulernen. Wir setzen stets das Wohl der Kinder in den Vordergrund und behandeln deshalb so schonend wie möglich.“

Das ist nicht nur zu lange (312 Zeichen, nutzbar sind lediglich 156), sondern auch wiederholend auf jeder Seite der gleiche Inhalt. Aber im Vergleich dazu hat die Kinderärztin in Zehlendorf gar keine Meta-Inhalte. Diese sind einfach auf jeder Seite leer.

Bei den Kliniken ist das Bild gerade umgekehrt. Während das Krankenhaus Heinsberg fleißig die Meta-Description befüllt hat, steht bei der Uniklinik in Ulm überall das selbe drin.

Krankenhäuser Vergleich

Vergleich Krankenhaus Keywords

Beide Klinik-Webseiten profitieren seit Penguin 2.0 mit einem deutlichen Anstieg von Keywords, für die sie in den Suchergebnissen eine Platzierung erzielen.

Betrachtet man also OnPage und OffPage, wird deutlich, dass ein ordentliches OnPage SEO wichtig ist, aber mit der Einführung von RealTime Penguin steigt die Wichtigkeit der Qualität der Backlinks.

Echtzeit Google Penguin Algorithm - Realtime Penguin

Google Realtime Penguin – Wie reagiert man auf das neue Google Update?

Dieser Artikel erklärt die Gefahren und Möglichkeiten des Google Penguin Realtime Algorithmus Updates und welche Maßnahmen in 2016 notwendig werden, um vor negativen SEO-Maßnahmen geschützt zu sein.

Was ist Google Penguin?
Auswirkungen von Google Penguin
Google Realtime Penguin – Segen oder Fluch?
Toxische Links: Wie wirken sich toxische Links aus?
Google Update bereits ausgerollt?
Vorgehensweise und Reaktion auf das Google Update

 

Positionsveränderungen in Echtzeit, sofortiges korrigieren und entfernen schlechter Backlinks, schnelle Erholung von Abstrafungen durch Google – Realtime Penguin steht vor der Tür.

Seit Oktober kündigt Google den „real time penguin algorithm“ an. Dieses neue Update, auch Penguin 4.0 genannt, bietet dann erstmalig die Möglichkeit der schnellen Rehabilitation einer Website. Man muss nicht erst auf das nächste Update warten, sondern kann schlechte Links schnell loswerden und auch gleich der entsprechenden Rankingverbesserung zuschauen.

Was ist Google Penguin?

Grundsätzlich ging es Google mit den Penguin-Updates darum, sogenannten Webspam einzudämmen. Dies umfasst alle Maßnahmen und Techniken, die im Rahmen der Suchmaschinenoptimierung durchgeführt werden, um ein besseres Ranking der Website in den Suchergebnissen zu erlangen, jedoch nicht konform den Google Webmaster Richtlinien sind.

Zu Vorderst soll damit der Kauf von Links und der Aufbau von Linkfarmen eingedämmt werden. Auch der Aufbau und die Geschwindigkeit von Links, die auf eine Website gerichtet sind, werden darüber überprüft und verdächtige (und überführte) Seiten abgestraft. (Vgl. OnPage.org)

Auswirkungen von Google Penguin

Wie sich so etwas auswirkt und wie man von dieser Abstrafung geheilt werden kann, zeigt sehr schön der Artikel der LinkResearchTools am Beispiel von Home24.

Diese sind plötzlich im Rang innerhalb von Google abgefallen:

(Quelle: LinkResearchTools)

(Quelle: LinkResearchTools)

Bei näherer Betrachtung zeigte sind ein deutliche Schwankung zwischen Power & Trust der verlinkenden Domains.

(Quelle: LinkResearchTools)

(Quelle: LinkResearchTools)

Deutlich erkennbar ist die „Übermacht“ von kraftvollen Links gegenüber Links, die „Vertrauen“ schaffen. Power trifft dabei eine qualitative Aussage über die Stärke des Links, während Trust die Berechnung der Vertrauenswürdigkeit einer Seite durch das vererbte Vertrauen von einer vertrauenswürdigen Seite darstellt.

Bei tieferer Analyse zeigt sich bei diesem Beispiel erstmalig, dass eine Website abgestraft wurde, weil negative SEO-Faktoren bewusst genutzt wurden. Eine ganze Reihe bereits abgestrafter Websites wurden mit Links zu Home24 versehen, was die Website von Home24 ins bodenlose fallen ließ. Vollzogen von Mitbewerbern? Nicht beweisbar.

Google Realtime Penguin – Segen oder Fluch?

Mit Realtime Penguin ist es nun möglich, nach der Abwertung solcher Links (ja, das muss man immer noch durch einen Spezialisten machen lassen, der auch erkennen kann, welches die „schlechten“ Links sind), kuriert sich eine Webseite wesentlich schneller, als früher – da musste man z.T. auf das nächste Update warten.

Ein Segen, sollte man meinen, aber das obige Beispiel zeigt, wie man im umgekehrten Fall daraus einen echten Fluch machen kann. Denn: Hart umkämpfte Branchen werden mit negativen SEO-Maßnahmen überschwemmt werden, weil es leicht ist, einen Mitbewerber mit solchen verbotenen Maßnahmen aus dem Rennen zu kicken.

Deshalb ist der Trend 2016 die totale Überwachung der bestehenden Links, rechtzeitiges Erkennen von gefährlichen Links und dem sofortigen Eingreifen, um diese schlechten Links wieder los zu werden.

So ausgefuchst die SEOs in bestimmten Branchen (Banken, Kredite, Versicherungen, Casino, Erwachsenenthemen etc.) sind, zeigt sich schon heute, wo wir erkennen, dass bestimmte Suchworte letztlich von einem Unternehmen dominiert werden, das fünf der begehrten 10 Links auf der Top-Seite von Google mit unterschiedlichen Domains nutzt. Nicht leicht nachzuweisen und nachzuvollziehen, aber wenn man tief greift, tun sich an dieser Stelle Abgründe auf.

Toxische Links: Was also passiert, wenn solche Unternehmen ihre Mitbewerber mit toxischen Links versehen?

Die betreffende Domain stürzt ab, wie im Beispiel von Home24.

(Quelle: LinkResearchTools)

(Quelle: LinkResearchTools)

Wenn nur noch 40% gesunde Links vorhanden sind krankt die Domain und fällt im Ranking ab.

Kommen solche Links über Link-Netzwerke, wird es schwierig herauszufinden, welche Links letztlich für die schlechte Reputation verantwortlich sind. Die schlechten Links könnten so versteckt sein, dass diese zunächst nicht ersichtlich sind. Optimierungen der Seite zeigen dann möglicherweise keine Wirkung bzw. steht das Unternehmen vor dem Rätsel, dass zwar „alles gemacht wurde“, um eine bessere Position zu erhalten, sich das Ranking aber nicht wirklich verbessert.

Zum Beispiel könnte die Website einfach auf der Suchergebnissliste Seite 2 feststecken. Das sieht dann auf den ersten Blick nicht nach Hinderungen durch schlechte Links aus. Eine Tiefenanalyse der Links wird dann erforderlich, zu erkennen, woran es liegt.

Solche Negative-SEO-Strategien wird es geben. Zunächst wird mit dem Realtime-Penguin-Algo experimentiert werden. Black Hat SEOs werden prüfen, was es benötigt, um eine Seite abfallen zu lassen. Vielleicht erlebt die Branche tatsächlich den Abfall einzelner Seiten wie tote Fliegen. Dies wird jedoch dazu genutzt, Erfahrungen über den Algorithmus zu sammeln.

Im zweiten Schritt werden dann die wichtigsten Mitbewerber langsam infiltriert und „langsam nach unten gedreht“. Für das Unternehmen schwierig erkennbar.

Google Update bereits ausgerollt?

Am 4. Januar tweetet Gary Illyes, Webmaster Trends Analyst bei Google, „the penguins are getting closer to freedom, but we don’t have a specific date yet @google @mattcutts“ und „I realise that’s not what you were looking for, but we can’t release something we haven’t tested extensively“. (Quelle: SemPost)

Am 6. Januar beobachtet das Accuranker-Team eine große Fluktuaktion über 6.000 US Keywords innerhalb ihres Tools. Das könnte ein Anzeichen für die ausgiebigen Tests sein, das Gary Illyes angekündigt hat.

Keyword-Bewegungen der letzten Tage, Quelle: AccuRanker

Keyword-Bewegungen der letzten Tage, Quelle: AccuRanker

 

Der dunkelorange Balken zeigt eine außergewöhnlich große Bewegung der Keywords in Mobile und Desktop verglichen mit den üblichen Tagen. Während AccuRanker bereits auf das Rollout tippt, denke ich, dass es sich hier um einen umfangreichen Test handelt.

Update: 09.01.2015: Ebenso Algoroo: Dort zeigt der Ausschlag vom 6. Januar ganz deutlich, dass er eine ebensolche Stärke hat, wie die wichtigsten Algo-Updates im Jahr 2015. Höher sogar als Mobile-Friendly oder das Quality-Update und stärker als Panda 4.2, Https-Update oder Hacked-Page Update… Für mich ein Anzeichen dafür, dass Google Realtime-Penguin aktiv ist.

Algoroo zeigt deutlichen Ausschlag in Algorithmusbewegungen innerhalb Google

(Quelle: Algoroo)

 

Vorgehensweise und Reaktion auf das Google Update

Wann auch immer das Update eingespielt wird, in vielen Branchen wird ein Umdenken notwendig werden. Die Gefahr, dass ein Mitbewerber ungewünschte Links einspielt besteht zwar schon seitdem Google schlechte Links bestraft, aber erst durch eine Echtzeitreaktion auf solche Links kann sich die Dramatik entfalten.

Größter Trend 2016 wird daher das Monitoren von Positionen und Backlinks.

Wer sich vor den negativen Auswirkungen des Realtime-Penguin-Algorithmus wappnen will, sollte folgende Punkte in seine Online-Marketing-Strategie ab 2016 integrieren:

  1. Content – gute Inhalte produzieren

    Entwickeln Sie guten und brauchbaren Content der dazu animiert, gute ordentliche Links zu erhalten. Ein gesunder Zuwachs von neuen, guten Links wirkt sich auf eine gesunde Positionierung in den SERPs (Suchmaschinenergebnisseiten) aus.

  2. Social Communication – gute Inhalte teilen und Kontakt zu den Kunden halten

    Teilen Sie gute Inhalte und prüfen Sie, wie diese ankommen.
    – Wie viele Retweets produzieren Ihre Inhalte?
    – Wie viele Likes generiert Ihr Facebook-Post?
    – Wie viel Rückmeldungen gibt es auf Ihre Newsletter (Klicks auf Links, Prozentsatz gelesener Newsletter, etc.)?
    – Welche sozialen Netzwerke sorgen für beste Verteilung?
    – Wer sind die Beeinflusser Ihrer Branche? Finden Sie heraus, welche Personen für ein kurzfristiges Rauschen oder für langfristig gute Verteilung von Inhalten verantwortlich ist.

  3. Monitoring – behalten Sie Keywords und Platzierung im Auge

    Werten Sie regelmäßig (mindestens einmal monatlich) Ihre Keywords und die dazugehörige Platzierung aus.
    – Bleibt die Position?
    – Verbessert sie sich?
    – Rutschen Sie langsam ab?
    Solche Merkmale müssen dann gegebenenfalls in der Tiefe analysiert werden.

  4. Link Watch – Auf wertvolle Backlinks aufpassen

    Behalten Sie Ihre Backlinks im Auge. Beobachten Sie, wer auf Sie verlinkt und mit welchem Inhalt.
    – Wachsen Ihre Links unnatürlich an?
    – Wie sehen die Ankertexte der Links aus?
    – Welche Änderungen ergeben sich im Link-Mix? (Verhältnis der verschiedenen Links, siehe auch hier)
    – Klassifizieren Sie neue Links

  5. Link Detox – Werden Sie böse Verlinkungen los

    Sind neue Links potenziell toxisch, so müssen diese zeitnah abgewertet werden.
    – Lernen Sie, wie Sie toxische Links erkennen. Dazu gibt es einige (nicht kostenfreie) Tools oder entsprechende Dienstleister. Das derzeit beste Tool sind sicherlich die LinkResearchTools mit seinen entsprechenden Modulen LinkDetox, LORT etc.
    – Werten Sie die toxischen Links zügig ab, mit so wenig Zeitverzug wie notwendig.

 

Sichtbarkeitsmanagement und SEO-Strategien werden sich 2016 danach ausrichten, den meisten positiven Effekt bei den Usern zu erzielen. Dazu ist Content nach wie vor King. Guter Inhalt wird geteilt, wird geliked, wird nach außen getragen. Zu diesem schon die letzten Jahre anhaltenden Trend kommt frisch hinzu, dass es immer wichtiger wird, sich um gute Links zu bemühen und – mit dem Realtime-Update nun endgültig – sich zeitnah darum zu kümmern, schlechte Links wieder loszuwerden.

Realtime Penguin by Google (free at pixaby)

LinkBuilding und LinkRiskManagement

Wie kommt man zu externen Links?

Wie kommt man zu externen Links und welche Plattformen eigenen sich?

Ich stelle Ihnen nachstehend einige Plattformen vor, auf denen eine Verlinkung auf die eigenen Webseiten sinnvoll sein kann.

Verzeichnisdienste

Sicherlich kennen Sie noch die Linklisten aus den Anfangszeiten des Webs. So etwas ist heute nicht mehr sinnvoll und die es gibt nur wenig Verzeichnisse/Linklisten, die wirklich Besuch bringen – von den Vorteilen für das eigene Ranking ganz zu schweigen.

Trotzdem gibt es einzelne branchenspezifische Verzeichnisdienste, die wiederum für guten Traffic sorgen (Wer liefert was (Bezahllinks) oder DMOZ (Open Source Verzeichnisdienst). Besonders der DMOZ-Dienst hat aufgrund der manuellen Auswertung der eingetragenen Seiten (jeder Eintrag muss genehmigt werden) einen hohen Stellenwert in den Suchmaschinen.

Content-Schmieden/Verzeichnisse von fertigen Artikeln

Zwischenzeitlich bei Google nicht mehr gerne gesehen sind die ganzen Artikelverzeichnisse, da sie nur noch dazu missbraucht werden, Links zu erhalten. Der „Trick“ hierbei war/ist, einen Artikel zu einem Thema mit ein paar Links zur eigenen Seite zu versehen und diesen Artikel dann zu veröffentlichen.

Zeitaufwändig: Der Blog

Jede Sekunde entsteht ein neuer Blog im Internet. Die wenigsten sind, wie eine Studie erwies, tatsächlich gewinnbringend, denn Blogs müssen dem Besucher einen Mehrwert bieten und zudem regelmäßig gepflegt werden. Dann sind Blogs interessant und werden, wenn sie sich zudem einem bestimmten Thema widmen, von den Suchmaschinen hoch gewertet. Hier ist der Faktor „Relevanz“ sehr hoch.

Nach Links betteln –> die Link-Partnersuche

Suchen Sie die TOP-Seiten für das von Ihnen gewünschte Suchwort heraus und mailen Sie den Webmaster an, ob es eine Möglichkeit gibt, einen Link auf Ihre Seite zu erhalten. Unter Umständen kann auch ein Sponsoring interessant sein, wenn es zu Ihrem Thema passt. Besonders dann, wenn ihr Inhalt auch für den Betreiber der „anderen“ Website interessant ist, profitieren beide davon.

Linkbait – Auslegen von „Link-Fallen“

Generieren Sie erstklassigen Inhalt, auf den man einfach verlinken muss. Dazu können Texte, Bilder, Videos oder Animationen gehören, die einen hohen Unterhaltungscharakter oder aber eine fachlich hohe Qualität haben.

Wikipedia

EinLink von Wikipedia auf die eigene Website scheint zunächst nicht viel zu bringen, da Wikipedia perse den Suchmaschinen verbietet, den Links zu folgen. Trotzdem kann ein Engagement auf Wikipedia von Erfolg gekrönt sein, denn Wikipedia steht bei sehr vielen Suchanfragen auf den vorderen Pläten. Eine Platzierung in Wikipedia durch guten Inhalt kann hier wieder zu Besuchern führen, die sich konkret für das angesprochene Thema interessieren. Die Qualität der Leads ist also recht hoch.

YouTube und Co

Videos werden von Google und Co immer höher eingestuft. Ein Video mit dem passenden Suchwort versehen kann dadurch zu guten Suchmaschinenergebnissen führen. In Google werden selbst die Beschreibung oder der Autor des Videos geführt. 🙂

PR-Artikel

Presseartikel auf den zahlreichen Newsplattformen sorgen dafür, dass Sie bei bestimmten Themen sehr häufig verlinkt werden. Wichtig ist hier vor allem, dass der Inhalt und Titel für Suchmaschinen optimiert ist und Sie mit dem Artikel auch etwas auszusagen haben, also einen Mehrwert bieten.

Social Media Plattformen (SMO)

Die Social-Media-Plattformen wie Mr. Wong, Digg, Stumble Upon etc. gewinnen immer mehr Beachtung. Besonders seit die großen Suchmaschinenbetreiber vermehrt versuchen, die Qualität eines Links zu bewerten. Was schafft mehr Vertrauen bei den Suchmaschinen, als wenn auf Social-Media-Plattformen ein Link zur Website steht. Das bedeutet, dass für verschiedene Menschen der Inhalt der Seite relevant ist.
Das alles sind Themen, die man sehr wohl auch selbst angehen kann. Hierzu sind keine SEO-Fachleute zwingend notwendig (es sei denn beratend). Eine Minimierung der SEO-Ausgaben ist also möglich.