Suchmaschinenoptimierung Stuttgart / Schorndorf – SEO ist Teil des preisgekrönten Sichtbarkeitsmanagement-Konzepts von SEYBOLD.

Platz 1 in Google mit SEYBOLD

, , ,

Platz 1 in Google: Das Google Ranking verbessern, um ganz oben zu stehen. 80% der Suchenden klicken auf die Top Positionen, auf den ersten Platz in den Google Suchergebnissen und die auf Seite 1 befindlichen Suchergebnisse. So sagen zumindest einige Studien. Wenige suchen noch auf Seite 2 und 3, wenn die zuerst dargestellten Ergebnisse nicht zufriedenstellend sind.

Ungefähr die Hälfte aller Klicks wird über die Top-Positionen (Platz 1 bis Platz 3) generiert. Die passende Strategie, die Sichtbarkeit in den Suchmaschinen zu erhöhen, gilt nicht nur für Google. Ein Kanal übergreifendes Konzept wird notwendig, dass die wichtigsten Bereiche berücksichtigt. Ich beschäftige mich seit 1998 mit Internet Marketing und genau diesen Themen. Dabei ist zu berücksichtigen, dass gerade kleine und mittelständige Unternehmen mit begrenztem Budget hier deutlich benachteiligt sind. Viele hundert Kunden konnte ich seit 1998 bereits beraten und ein gemeinsames Konzept umsetzen. Über 1500 aktive Newsletter-Abonnenten, über 800 Twitter-Follower für die regelmäßige Ausgabe von SICHTBAR SEYBOLD, Platz 1 Management eBook Oktober 2014 bei Amazon und zahlreiche Nutzer für die Sichtbarkeits-App folgen meinen Tipps für Mittelstand und Kleinunternehmen auf Twitter, Facebook, Pinterest und hier im Blog. Weiterlesen

Die Top 6 SEO Mythen

,

SEO Mythen verfolgen führt nicht zum Unternehmenserfolg

#1 | Ich benötige zwingend einen Google-Eintrag

Viele denken, es sei nötig oder ein absolutes MUSS seine Seite in Google eintragen zu lassen oder neue URLs anzugeben. Jedoch besteht darin keinerlei Notwendigkeit solange die Seite öffentlich zugänglich ist, da der Crawler selbst die Website findet und indexiert.

 

#2 | Ranking ist das Wichtigste

Was bringt es einem eine hohe Position oder – noch besser- die Erste in Google zu haben, wenn die Klickrate schlecht ist? Nicht gerade viel.
Ein gutes Ranking zu haben, ist nur die halbe Miete, wenn überhaupt. Häufig handelt es sich um unpassende Keywords, die kaum einen Bezug zum Text haben, was Nutzer verwirrt oder gar ärgert. Ebenso können die Seitenbeschreibungen nicht gerade ansprechend sein.
Oder ist das erste Ergebnis einfach nur kein organischer Eintrag, also eine Anzeige beispielsweise?
Es geht darum, den Nutzer mit passenden Inhalten zufrieden zu stellen und nicht nur die höchste Position im Google-Ranking zu erlangen.

 

#3 | Viele Links sind besser als Inhalte

Warum auf Content setzen, wenn man auch einfach viele Backlinks verwenden kann?
Hört sich logisch an, ist jedoch eine Gefahr, da Google seit September 2016 (Realtime Penguin) potenziellen Linkspam in Echtzeit überprüft und Maßnahmen unmittelbar vornimmt. Der Seitenbetreiber merkt dies zumeist nicht oder viel zu spät.
Wichtig ist, neben guten Links, in herausragenden Inhalten (Content) zu investieren. Zudem werden interessante und relevante Inhalte meist gerne verlinkt und führen so automatisch zu Backlinks.
Dabei sollte das Linkprofil regelmäßig auf toxische Backlinks geprüft werden (Link Risk Management).

 

#4 | Je mehr Keywords ich habe, umso besser

Zunächst einmal muss eines klar gestellt werden: Keywords benötigen keinen wortwörtlichen Zusammenhang. Google klassifiziert eine Seite automatisch zu themenrelevanten Keywords. Eine Optimierung auf Anwenderfragen hilft bei der Findung von Long-Tail-Keywords („Wie funktioniert …“, „Was ist bei … zu beachten“).
Das sinnlose Aneinanderreihen von Keywords („Keyword-Stuffing“) oder hellgraue Keywords auf weißen Grund, straft Google seit dem Panda-Algorithmus ab.

 

#5 | Meta-Tags beeinflussen das Suchranking positiv

Die Metadaten mit Keywords zu überfüllen, bringt rein gar nichts. Gestaltet man die Meta-Beschreibung für Nutzer ansprechend erhöht sich die Chance, dass dieser auf den Eintrag in der Suchergebnisliste (SERPs) klickt.
Idealerweise sollte Titel und Beschreibung so verfasst werden, dass der Nutzer „gar keine andere Chance“ hat, als auf diesen Eintrag zu klicken.

 

#6 | Technisches SEO führt zu einem Top-Ranking

Nicht allein dadurch, dass die Technik in Ordnung ist, kommt man zu einem Top-Ranking. Viele Faktoren gehören dazu.
Zum einen natürlich einen strukturierten und passenden Inhalt, dessen Themen relevant sind. Genauso aber gute vorhandene Backlinks, welche regelmäßig geprüft werden müssen. Und eine ansprechend gestaltete Seite, welche Nutzer gerne mit interagieren und sich zufrieden fühlen.

 

Weitere Informationen

 

SEO – Was ist SEO?

,

Was ist SEO?

SEARCH ENGINE OPTIMIZATION (SEO)

SEO ist die englische Bezeichnung für Suchmaschinenoptimierung. Darunter versteht man den Prozess, die Anzahl an Besuchern einer bestimmten Website zu maximieren, indem sichergestellt wird, dass die Website weit oben in den Suchergebnissseiten einer Suchmaschine erscheint.

 

BereichThemenWeiterführende Links
OnpageServergeschwindigeit, Meta-Daten, Inhaltsstruktur, Bilder, Architektur der Website, interne und externe Verlinkung, Content, Keywords, strukturierte Daten, Mobile SEOPlatz 1 in Google
Sichtbarkeitsanalyse
Content-Marketing
OffPageBacklinks (NO-Follow, Do-Follow, Nicht-toxische-Links), Local SEO, AdWords/Facebook Ads etc., Social Media, Link Risk Management und Link AuditsLinkbuilding
Link-Risk-Management
AdWords
Local SEO
Social Media
Link Audit

SEO

Unter SEO (engl.: Search Engine Optimization, dt.: Suchmaschinenoptimierung) versteht man alle Maßnahmen, die das Ranking einer Website in den SERPs beeinflussen, dem organischen Suchmaschinenranking in den unbezahlten Suchergebnissen (Natural Listings).

SEO ist der große Bruder des SEM (engl.: Search Engine Marketing, dt.: Suchmaschinenmarketing). Beide wiederum sind Bestandteil des Online Marketings ist.

Suchmaschinenoptimierung lässt sich in zwei Aufgabenbereiche gliedern: OnPage- und OffPage-Optimierung.

Unter OnPage versteht man alle Maßnahmen und Anpassungen, die auf der eigenen Website durchgeführt werden können. OffPage dagegen bezeichnet alle Maßnahmen, die nicht durch Änderungen der Website selbst geschehen, sondern von äußeren Einflüssen, wie zum Beispiel Backlinks, abhängig sind.

Das Gegenstück zu SEO ist “Negative SEO”, worunter alle Maßnahmen fallen, die zu schlechteren Rankings von Mitbewerbern führen sollen, statt zu einem besseren Ranking der eigenen Webpräsenz.

 

Weiterführende Informationen: Platz 1 in Google

 

Historisches zu SEO

Suchmaschinenoptimierung gibt es nun schon seit rund 20 Jahren und wer auf den entsprechenden Konferenzen unterwegs ist, erfreut sich über die vielen Geschichten von Menschen wie Rand Fishkin und anderen Veteranen des SEO.

Diese Dinge sind nun in einem ca. 40 minütigem Film zusammengefasst, der in voller Länge unten angeschaut werden kann.

“SEO – The Movie”

 

SMX 2017 – Was bringt die Konferenz in München?

, , ,

Eine Konferenz zum 2-Tages-Ticketpreis von ~ 1.400 Euro zzgl. MWSt.

Was kann man dafür erwarten?

Die kurze Antwort: Ziemlich viel. Viele Kollegen aus Agenturen, Head of SEOs großer Unternehmen, Affiliates – und jede Menge Best Practice, auch für Fortgeschrittene.

Opening Keynote: Rand Fishkin – The Search Landscape in 2017

Rand Fishkin auf der SMX 2017 MUC

 

Wie sieht die Google Suchmaschinenlandschaft in 2017 aus? Rand veröffentlich in seinem Vortrag weltweit erstmalig die aktuellen Forschungsergebnisse von MOZ.

Suchanfragen Mobile vs Desktop

Täglich werden über 2 Trillionen Suchanfragen an die Suchmaschine gestellt. Eine Suchanfrage dauert dabei durchschnittlich 55 Sekunden.

12% der Suchergebnisse geht direkt zu anderen Google Angeboten.

8% nutzen den “Zurück-Button”, um wieder zum Suchergebnis zu kommen und ein anderes Angebot aus den Ergebnissen zu wählen.

Spannend dabei: 21% ändern die Suchanfrage nochmal, bevor sie diese an Google abschicken.

Dabei gibt es Unterschiede, so Rand Fishkin, zwischen mobiler Suche und der Desktopsuche. Während es zwar auf mobilen Endgeräten wesentlich mehr Suchanfragen gibt, ist dort der Traffic im Vergleich zu Desktopsuchen deutlich hinterherhinkend. 57% der mobilen Suchanfragen enden ohne einen Klick, weil die Antwort bereits vom Endgerät gegeben wurden. 41% werden dann in der organischen Suche tatsächlich geklickt, während auf AdWords lediglich 2% der Klicks gehen.

Auf dem Desktop schneidet das besser ab, wenn auch nur wenig (Paid-Search bei 2,8%, 62% Klick auf organische Ergebnisse und 35% klicken tatsächlich gar nichts an).

Die Problematik dabei ist, dass viele Snippets bereits die Ergebnisse der Suche anbieten.

Featured Snippets – die Zukunft von SEO?

Die Optimierung von Featured Snippets bietet damit natürlich die Chance, direkt auf Suchanfragen mit einem Ergebnis reagieren zu können. Der Trend, dass sich Google von der Suchmaschine zur Antwortmaschine bewegt, ist mehr als deutlich. Dabei bedeutet aber auch, dass mehr Antworten, die direkt in den Suchergebnissen gezeigt werden gleichzeitig weniger Klicks auf AdWords bedeuten. Diese Entwicklung scheint Google ganz bewusst zu gehen, indem man sich zur Antwortmaschine wandelt.

 

Braucht man 2017 eigentlich noch eine App?

90% der mobilen Nutzung fällt auf Apps zurück. Dabei sind 10% Browser (ja, Browser zählen auch als App). Im Durchschnitt nutzt ein Smartphone-User gerade mal 3 Apps. Meist sind das Facebook, Google Maps und eine dritte App.

Wozu also 2017 noch Apps entwickeln?

Tatsächlich ist die Entwicklung weg von Apps und hin zu PWA (Progressive Web Apps) ein klarer Trend.

Wohin klickt der Nutzer nach einer Suche?

Die Click-Through-Rate ist zwischenzeitlich ein Rankingfaktor für die Google Suchergebnisse. Was aber taucht nach einer Suche in den Ergebnisse auf und worauf klickt der Nutzer nun tatsächlich?

  • AdWords ist mit 50% in den SERPS vertreten, aber nur 3% der Klicks fallen auf AdWords.
  • Google Shopping ist mit 9% vertreten, aber nur 0,55% der Klicks gehen auf die Produkte.
  • Youtube-Ergebnisse kommen zu 6.3% der Suchen und erhalten durchschnittlich 1,8% der Klicks.
  • Der Knowledge-Panel taucht bei 38% der Suchen auf – und wird 0,5% geklickt.
  • 49% der Suchen werden gar nicht geklickt.

 

Rands Ausführungen waren ein sehr interessantes Abbild der Google Suche 2017.

 

Google Analytics Power Reporting für SEO und SEA

Andrew Garberson von Luna Metrics zeigte mehrere Varianten, die sich lohnen, mit Google Analytics zu verfolgen. So sollte jeder drei Levels von Reporting nutzen.

Das tägliche Basic-Reporting umfasst vor allem die Veränderungen im organischen Traffic während das monatliche Reporting ein Multi Channel Reporting ist und verschiedene Punkte darlegt

  • Conversions: Organic vs Paid
    Conversions: Search vs Other
  • SEO Landing Page Traffic
  • Budget Tracking

Und so weiter. Die Ansätze von Andrew sind mit vielen Beispielen direkt übernehmbar für das eigene Reporting und Überprüfung der Analytics Daten.

 

Die Wahrheit über SEO Mythen von John Müller

Googles Webtrends Analyst John Müller räumte auf mit SEO-Mythen und gibt auf die zahlreichen Fragen aus dem Publikum geduldig Antworten. Leider sind die Antworten oft im typischen “Google-Nebulös” gehalten – Auf keine der Fragen gibt es eine eindeutige Antwort.

John Müller Google

Beispiele:

  • Seiten, die es nicht mehr gibt, wären technisch korrekt mit einem 410 aus dem Index zu kegeln, praktisch reicht aber auch ein 404 (dauert halt minimal länger).
  • Indexierung von Infinite Scroll funktioniert manchmal für 2 oder 3 Seiten, aber der Googlebot bleibt nur eine kurze Zeit und Lazy Loading (also das Laden von Bildern dann, wenn sie ins Bild kommen) kann der Googlebot nicht. Oder manchmal doch? Man weiß es nicht zu 100%. Zugegeben ist das aber auch schwer – ich vermute, dass nicht mal Google weiß, wie die Zusammenhänge der Crawlings und Rankings tatsächlich funktionieren.

Lösungsansätze für immense Herausforderungen

zeigt Oliver Borm (Google) auf. Dabei stellt er zunächst das Cross Device Tracking in den Mittelpunkt, weil sich Menschen sowohl auf mobilen Geräten als auch auf dem Desktop bewegen. Gerade bei AdWords verwendet man hier die künstliche Intelligenz für das Smart Bidding. So bewegt sich Google hier von Mobile First zu AI First und zeigt Smart Bidding mit zwei Klicks im neuen AdWords (AdWords next), das dieses Jahr ausgerollt werden soll.

 

In den Nachmittagsvorträgen habe ich mir Google Tag Manager Hacks zu eigen gemacht, gesehen was die Search Console alles für mich tun kann, wie man idealerweise auch für SEO ein Split-Testing aufsetzt und was alles für die Erstellung eines ordentlichen Feature Snippets notwendig ist.

Interessante Gespräche mit Marcus Tandler oder Christoph Cemper rundeten den Tag für mich ab.

Highlight des ersten Tages aber war die Keynote: “Was wir immer schon wissen wollten: Q&A mit Rand & Wil”, bei dem Rand Fishkin und Wil Reynolds aus dem Nähkästchen plauderten. Das sind auch genau die Momente, die eine solche Konferenz so wertvoll machen und viele neue Denkanstöße oder Bestätigungen mitbringen.

 

Insgesamt ist die Wertigkeit für ein solches Ticket immer wieder gegeben durch den interessante Know How Transfer, den man erlebt. So standen am zweiten Tag wichtige Punkte auf dem Programm wie z.B. das Thema Relaunch bei großen Webseiten oder auch die Problematiken bei internen Verlinkungen.

Aber bei jeder SMX ist ein Vortrag dabei, der allein schon (fast) die Gebühren Wert ist. Für mich – und für viele andere – war das Wil Reynolds dddmit seinem konkreten Ansatz …

… “People First vs Google First”.

Wil berichtet davon, wie er über viele Jahre von 2009 bis 2012 weltweit an oberster Stelle in den Suchergebnisse stand für SEO Agency, SEO Agencies, SEO Consultant, SEO Consultants usw. Tatsächlich hat sich nach seinen Aussagen nicht ein einziges Geschäft über diesen Vorteil angebahnt, weil die Menschen einfach anders suchen.

Das ist auch der zentrale Ansatz – und vielleicht hat mir der Vortrag von Wil deshalb so gut gefallen, weil er sich so deckt mit dem, wie sich Seybold gewandelt hat seit 2013 mit dem Ansatz des Sichtbarkeitsmanagements.

Wil geht grundsätzlich davon aus, dass Menschen nach jemandem suchen, der ihnen helfen kann – und zwar lokal in ihrer Nähe und nicht irgendwo auf der Welt. Und Personen, denen geholfen werden konnte, danken oftmals mit Weiterempfehlungen, was Wil zu dem Ausspruch bringt “Thanks are better than Ranks”.

Ein zufriedener Kunde bringt mehr neues Geschäft für die Agentur, als es die Rankings tun können.

Wil und seine Agentur hören den Kunden ihrer Kunden zu und versuchen herauszufinden, was deren Antrieb ist, wenn sie etwas in Google suchen. Denn es ist wichtig, die Gefühle herauszuarbeiten, die der Suchende hat, anstatt die richtigen Worte zu finden. Worte können je nach Tonation andere Bedeutungen haben (merkt man z.B. schon daran, dass E-Mails viel eher falsch verstanden werden können, als wenn man miteinander telefoniert – E-Mails tragen keine Emotionen).

Dass er damit Erfolg hat, belegt Wil Reynolds mit zahlreichen Beispielen seiner Kunden.

Erfolg in SEO ohne Ranking-Verbesserung

Allein eine Änderung der Meta-Daten mit weniger technischer Terminologie brachte 57% mehr Click-Through und 59% höhere Conversion. Und das alles, ohne dass sich die Position in den Suchergebnissen nur im Geringsten veränderte.

 

SMX München möchte man nicht missen

Mein Fazit für die SMX ist: Man möchte diese Konferenz nicht missen. Nicht nur, dass der Termin für Networking erstklassig geeignet ist und man zahlreiche (neue) Freundschaften schließt – es bietet sich darüber auch der direkte Austausch auf einen sehr hohen Level. Vorträge und Hands-On haben fast durchgehend eine hohe Wertigkeit. Für jeden sind eine Menge technischer Fertigkeiten dabei und was noch wesentlich wichtiger ist: Es gibt Denkanstöße und manchmal ganz neue Sichtweisen.

SMX 2018 also schon mal im Kalender vormerken: 20.03.2018 – 21.03.2018

 

 

Wie lange dauert es, bis Suchmaschinenoptimierung Ergebnisse liefert?

Wie lange dauert es, bis SEOs mit Suchmaschinenoptimierung erste Ergebnisse liefern können?

Das ist eine der Fragen, zu denen veröffentlichte Google auf dem Google Webmasters Video-Kanal ein “How-To”-Video darüber (wir berichteten auf den Social Media Kanälen davon bereits am 14.02.).

Ein Punkt darin war die Frage: “Wie lange dauert es, bis eine Website Verbesserungen sieht, die durch SEO-Änderungen kommen?”

Googles Maile Oyhe sagte:

“In den meisten Fällen werden SEOs vier Monate bis zu einem Jahr benötigen, bis Ihr Unternehmen erste Verbesserungen durch die Umsetzung erlebt. Und dann werden Sie einen potenziellen Nutzen daraus sehen.”

Google SEO Tipp wie lange dauert seo

Spannend daran ist, dass Google sich überhaupt zu einer solchen Äußerung hergibt. Eine Frage, die sich SEO-Neulinge stellen oder aber Unternehmer, die wissen wollen, wie schnell sich die Veränderungen bemerkbar machen. Es dauert als zwischen 4 Monaten und einem Jahr, bis ein SEO Probleme identifiziert, die Änderungen vornimmt und dann die Verbesserungen in den Suchergebnissen bemerkbar werden.

Das Video ist eine gute Aufklärung, um vor allem SPAM-SEOs zu identifizierten. Viele Website-Besitzer wollen die Ergebnisse aus SEO-Arbeit schnell erleben, aber das ist oft unrealistisch, wenn man auf negativen SEO-SPAM verzichten möchte. Sogenannte Garantien bedeuten also meist aggressive Spam-Techniken oder schnelle Rankings über Google AdWords.

Rankings in 2 Wochen sind einfach unrealisitisch ohne den Einsatz von “dunklen Methoden”. Im Gegenteil, das kann auch zu Abwertungen führen. (Vgl. hierzu: Google Penguin 4.0 – Echtzeit Abstrafungen).

Ausnahmen für schnellere Ranking-Ergebnisse gibt es natürlich auch: Überall dort, wo technische Probleme bestehen, wie z.B. Blockieren des Googlebots beim Crawling, Verwendung falsche Meta-Tags (z.B. NoIndex-Tag) oder dem entfernen massiver negativer Links (Link Risk Management) sind schnellere Ergebnisse realistisch.

Das Video aus dem Google Webmasters Kanal sehen Sie hier:

 

Weitere Informationen zum Thema:

SEO-Irrtümer: Die Kunst unsichtbar zu bleiben

,

Heute erscheint bei Impulse Online das Interview zum Thema SEO-Irrtümer mit mir.

SEO-Irrtümer: 9 Gründe, warum Ihr Unternehmen bei Google unsichtbar ist

Und darum geht es:

Alle wollen die Nummer 1 sein – das gilt auch für die Suchergebnisse bei Google. Doch viele Unternehmen verbauen sich die Chancen auf eine Top-Platzierung: weil sie auf SEO-Irrtümer hereinfallen. Impulse zeigt die 9 häufigsten SEO-Irrtümer auf.

  • Irrtum 1: Wenn ich wichtige Schlüsselbegriffe auf meiner Seite verstecke, nutzt das meiner Platzierung bei Google.
  • Irrtum 2: Einmal optimiert, bleibt meine Seite für immer auf den vorderen Plätzen bei Google.Irrtum 3: Je häufiger ich das Keyword in einen Text packe, desto besser wird er gefunden.
  • Irrtum 4: Das beste Keyword für meine Seite ist eins, das möglichst viele Menschen suchen.

  • Irrtum 5: Mit gekauften Links von fremden Webseiten kann ich mein Ranking ganz einfach verbessern.
  • Irrtum 6: Google-Optimierung wirkt sofort.
  • Irrtum 7: Alles, was es zu SEO zu wissen gibt, kann ich einfach googeln.
  • Irrtum 8: SEO überlasse ich einfach meinem Programmierer.
  • Irrtum 9: Wenn meine Kunden mich über Google finden können, brauche ich mich nicht mehr weiter um Marketing zu kümmern.

Den ausführlichen Text gibt es bei Impulse.de

 

 

Außerdem:

Verlorene Backlinks – Wo SEO Tools uns täuschen

,

Im Rahmen eines Kundenauftrags zur Sichtbarkeitsanalyse habe ich mich den Backlinks gewidmet. Ganz speziell den verlorenen Links. Dabei sind mir spannende Dinge aufgefallen.

AHREFS, ein bekanntes und beliebtes Tool zur Analyse von Backlinks, lieferte mir zahlreiche verlorene Backlinks in den letzten Wochen.

Der obige Screenshot zeigt verweisende Seiten mit z.T. sehr ordentlichen Domain Ratings auf Weiterleitungen, bei denen der Link entfernt wurde (“Link removed”).

Eine Sichtprüfung des Links jedoch ergab, dass die Verlinkung sehr wohl noch funktioniert. Gemessen mit den Link Redirect Trace, einem Chrome-Plugin Link Research Tools, zeigt die tatsächliche Verlinkung.

LinkRedirectTrace - Beweis der Weiterleitungen

3xx Weiterleitungen und ihre Bedeutung

Der funktionierende Link zeigt eine Weiterleitungen vom Typ 301 und vom Typ 302. Per Definition sind diese wie folgt einzustufen:

301 – Weiterleitungen gelten als “permanent verschoben”. Diese Verlinkungen geben alle Linkpower an den Ziellink weiter.

302 – Weiterleitungen gelten als Status “found” und sind Weiterleitungen, die kein Rankingpower weitergeben, so schreibt z.B. OnPage.org in seinem Wiki.

 

Mit diesen Informationen über Redirects im Hinterkopf bedeutet das, dass ein Link, der via 302 weiterleitet, keine Rankingpower übergibt und somit wie ein “removed Link” zu werten ist.

Wenn dem so ist, dann macht ahrefs alles richtig (übrigens auch Majestic und MOZ sehen das so).

 

Widerlegung: 302 übergibt Rankingpower

Leider gibt es zahlreiche Beispiele dafür, dass 302-Weiterleitungen eben doch Rankingpower mit geben. Zu allererst ist da die Analyse meines Kollegen Derek Devlin. Er konnte nachweisen, dass Penalties, also Abstrafungen von Google, sehr wohl weitergegeben werden.

 

Christoph Cemper von Link Research Tools konnte in einem Test nachweisen, welche Weiterleitungen momentan den höchsten Einfluß auf das Ranking in den Suchmaschinen hat. Im Juli 2016 hat Google bestätigt, dass alle 30x-Weiterleitungen auch PageRank vererben.

Auch wenn PageRank tot ist, bedeutet dies, dass die Wertigkeit eines Links weitergegeben wird, egal mit welchem Redirect dies geschieht.

Dazu habe ich mich bei Gary Illyes rückversichert.

Twitter-answer-by-gary-illyes

Generell denke ich: 30x-Weiterleitungen sollten so verwendet werden, wie sie von W3C gedacht waren. Und “found” ist einfach etwas anderes als “permanently moved”. So sollte das auch für die meisten Suchmaschinen gelten – offensichtlich nicht aber für Google.

Wie Cemper zeigte, sind 302 Redirects im Moment der schnellste Weg bei einem Relaunch zur Backlink-Erhaltung.

Wenn Google sowohl die Abstrafungen als auch die Rankingpower be 30x-Weiterleitungen weitergibt, müssen die Ergebnisse von ahrefs, MOZ und Majestic differenziert betrachtet werden.

Und dies ist – wieder einmal – der Beweis für die alte SEO-Weisheit “Verlasse dich niemals auf ein einziges Tool”.

 

Weiterführende Informationen:

301 Weiterleitungen in großen htaccess Dateien – Falsche Empfehlung

Link Building

Verlasse dich nie auf nur ein SEO-Tool

 

Black Hat SEO vor dem Aus

, , , ,

Im September 2014 bereits berichteten Betreiber von privaten Blog-Netzwerken (PBN) darüber, dass Google damit begonnen hat, diese Netzwerke zu deindexieren.

Damit läutete Google konzentrierte Maßnahmen gegen Black Hat SEO ein. Laut Search Engine Roundtable sind bereits tausende PBNs abgestraft. Zahlreiche Betreiber solcher Sites berichten bereits über den Niedergang ihrer Netzwerke. Ist Black Hat SEO damit vor dem Aus?

Black Hat SEO – Was ist das?

Der Begriff Black Hat kommt aus der Hacker-Szene. Ein “Black Hat” Hacker ist ein Hacker, der Techniken aus niedrigen Beweggründen nutzt, um Computer zu manipulieren, um damit an Daten zu kommen, die er verwenden kann (Quelle: Moore, Robert (2005). Cybercrime: Investigating High Technology Computer Crime. Matthew Bender & Company, Seite 258).

Black Hat SEO sind demzufolge alle Maßnahmen, die aus dem Grund durchgeführt werden, eine Website mit allen Mitteln kurzfristig auf Platz 1 für ein bestimmtes Keyword zu platzieren.

Was sind PBN?

PBN oder Private-Blog-Networks (private Blog Netzwerke) dienen genau einem solchen Black Hat Zweck. Ein Black Hat SEO kauft viele Domains mit unterschiedlichen Names und Orts-Angaben (sprich: Er verwendet zahlreiche unterschiedliche “Handles”, die nur den Zweck haben zu verschleiern, wer tatsächlich der Besitzer einer solchen Domain ist). Dies erfolgt, damit Google nicht nachvollziehen kann, wer hinter den Domains eigentlich steckt. Durch den Aufkauf abgelaufener Domains mit einem hohen Wert für SEO (gute Backlinks bzw. insgesamt gute Verlinkung und entsprechender Reputation) werden dann weitere Domains zugekauft und in das PBN integriert. Es werden Seiten angelegt, die so untereinander verlinken, dass eine bestimmte Seite gewinnbringend und kurzfristig im Ranking auf die Top-Position manövriert werden kann.

Bei diesen Domains wird ganz konkret das Impressum verschleiert, damit Google hier keinen Zusammenhang zwischen den Domains und der eigentlichen Zielseite erkennt. Zudem werden die Domains bei unterschiedlichen Hostern betrieben, um auch eine räumliche Trennung darzustellen.

Unlängst hat der Gewinner des “größten SEO Wettbewerbs” von XOVI mit genau diesen Methoden den Wettbewerb und damit einen Smart gewonnen. Noch (25.09.2014) hält sich Rankboost ganz oben mit einem Angebot, das inhaltlich komplett deplatziert ist. Andere Teilnehmer, die über viele Wochen große Energie in inhaltlich hervorragende Seiten investiert haben, wurden mit einer solchen Maßnahme brüskiert.

Solche PBNs dienen also dazu, den Google Index zu spammen, mit informationen

Was unternimmt Google gegen Black Hat SEO?

Bislang war Google ziemlich machtlos gegen ein solches Vorgehen und solche Verschleierungsmethoden boten wenig Möglichkeiten, diese Seiten zu erkennen.

Wenn ein PBN ordentlich aufgestellt ist, dann wird das Impressum “vergessen”, denn wenn es als Bild dargestellt ist, kann es Google lesen. Also kann Google Seiten ohne Impressum identifizieren und ggf. abwerten. Ebenso Seiten mit einem Bild-Impressum.
Schwieriger wird es, wenn ein bewusst gefälschtes Impressum verwendet wird.

Über kurz oder lang muss sich die Black Hat SEO-Gemeinde neue und andere Methoden ausdenken. In jedem Fall müssen diese Methoden überdacht werden, denn Google schläft nicht.

Die Strategie von Google ist klar erkennbar:
Der Pinguin schaut nach Links aus Netzwerken.
Panda 4.0 bewertet Inhalte.
Payday Loan 2.0 rechnet mit besonders “spammigen” Suchanfragen
Erst kürzlich gab es diese entsprechenden, umfangreichen Updates (Mai 2014).
Dann muss man die Korrekturen an Verlagsseiten (Reduzierung von Pagerank, um diese nicht (mehr) so wichtig darzustellen für Backlinks) als Maßnahme zur Vorbereitung für einen Schlag gegen die PBNs sehen.
(Übrigens: Wer den ganzen Zoo von Google kennenlernen will, also sehen möchte, welches Tier für welches Update steht, der findet hier einen ordentlichen Artikel darüber).

Wer hat Nutzen aus den Google Maßnahmen?

Die Nutznießer dieser Abstrafwelle werden Webseiten sein, die “ordentliches” SEO betreiben. Es wird dabei spannend anzusehen sein, wie sich die Maßnahmen auf konkurrierende Webseiten auswirken. Wenn Googles Maßnahmen aufgehen, dann müssen diese eine bessere Position erzielen. Bislang waren Websites, die konkret auf Manipulation verzichten und gute Inhalte liefern, gegenüber Black Hat SEO benachteiligt.

Wenn es Google gelingt, diese Maßnahmen auch auf andere Sprachen umzusetzen und weiterhin ein deutliches Zeichen gegen PBNs setzt, gewinnen die Webseiten, die von SEOs optimiert werden, die auf starke Inhalte setzen – aber auch jeder Nutzer der Google-Suchmaschine, der bessere Inhalte geliefert bekommt. Bleibt die Hoffnung, dass Google bei diesem Experiment keine Kollateralschäden unterlaufen und man bald von zahlreichen zu Unrecht abgestraften Netzwerken lesen muss.

 

2016: Das Ende von Black Hat?

Mit Google Realtime Penguin (Google Penguin 4.0) hat Google das Ende von Black-Hat-SEO eingeläutet – so dachte man zunächst. Tatsächlich gibt es Anfang 2017 noch immer viele Branchen und Bereiche, die sehr wohl mit Black Hat Techniken funktionieren.

Im Gegenteil: Penguin 4.0 bietet sogar die Möglichkeit, gezielt negative SEO-Attacken auf Domains, bestimmte Seiten oder Verzeichnisse zu starten. Diese werden – danke Penguin 4.0 Algorithmus – auch gar nicht mehr so schnell erkannt.

Penguin 4.0 läutet somit die dringende Notwendigkeit für Link Risk Management ein.

 

Weitere Informationen:

Ranking Faktor Backlinks

Realtime Penguin 4.0 – Das aus für Black Hat oder gehts jetzt erst richtig los?

 

Google Penguin 4.0 – Chancen und Möglichkeiten

, , ,

Google Penguin 4.0 – Google Realtime Penguin ist live!

Google Penguin Realtime with real wineGoogle aktualisiert den Penguin-Algorithmus. Dieser wird ab sofort in Echtzeit in den Kern des Suchalgorithmus eingebaut. Das bedeutet zwar nicht, dass der Effekt sofort in der nächsten Sekunde sichtbar wird. Aber mit jedem Crawl, z.B. schon am nächsten Tag. (Quelle: https://webmasters.googleblog.com/)

Fast zwei Jahre warteten Webmaster auf dieses Update, um betroffene Webseiten ganz zu rehabilitieren. Es wurde auf Ende 2015 angekündigt, verschoben auf 2016. Jetzt ist es da: PENGUIN 4.0. Gleichzeitig ist das auch das letzte Penguin-Update. Denn der Pinguin ist nun fester Bestandteil des Kerns des Google-Algorithmus.

Bei der Einführung im Jahr 2012 wurde noch ein periodisches Update betrieben. Wurde eine Webseite als Spam markiert, so dauerte es bis zum nächsten Update, bis eine bereinigte Internetpräsenz sich wieder erholen konnte. Das konnte dauern. Zum letzten Update waren es zwei Jahre (Oktober 2014 – September 2016).

Google Abstrafungen in Echtzeit

Mit dem Echtzeit-Filter bewertet nun Google die Seiten bei jedem Besuch durch den Googlebot und die Aufnahme bzw. Prüfung in den Googleindex. Alle Seiten werden also permanent vom Filter beurteilt und in diesem Rahmen abgestraft oder rehabilitiert. Kurz nachdem die Seite neu durchsucht wurde, ist das Ergebnis sofort sichtbar.

Das besondere nun: Der Penguin wird nicht mehr nur die ganze Seite markieren, sondern wirkt seitenspezifisch. Das bedeutet, wer schlechte Links auf eine starke Unterseite des Konkurrenten setzt, kann die Positionierung in den Suchergebnissen dieses Teilbereichs eines Internetauftritts sehr schnell abstürzen lassen. Aber auch umgekehrt: Wer sein Linkprofil im Auge hat, kann sich schnell erholen. Und mit dem Link Detox Boost von Cemper kann die Erholungsphase wesentlich beschleunigt werden.

Erschwerend für das Link Risk Management kommt noch hinzu, dass neben den Seiten auch Domains, Ordner, Keywords … betroffen im Algorithmus geprüft werden.

Spätestens jetzt wird klar: Die Wichtigkeit, das eigene Linkprofil im Blick zu haben, war noch nie so lebenswichtig wie jetzt. Christoph Cemper, CEO von LinkReasearchTools empfiehlt mindestens eine wöchentliche Prüfung, “in der Zukunft womöglich öfter.” (Quelle: Newsletter LRT)

 

 

Auswirkungen von Google Penguin Realtime:

  • Betroffene Seiten werden abgestraft und fallen im Ranking ab, nicht mehr zwingend die gesamte Domain
  • Betroffene Seitenbereiche können komplett abfallen, wenn der Google Filter hier schlechte Links sieht. Das bedeutet, dass unter Umständen ein gesamter Leistungsbereich eines Unternehmens aus den Suchergebnissen verschwinden kann, während andere Bereiche nach wie vor sichtbar und auffindbar bleiben.
  • Penguin hat nun Auswirkungen auf alle Ebenen wie Domänen, Ordner, Unterordner, Seiten und auch Keywords und Keyword-Gruppen. Vermutlich werden exzessive Keywords herausgefunden und eine Seite so isoliert werden – oder eine komplette Domain ist einfach nicht mehr auffindbar für bestimmte – wichtige – Keywordgruppen
  • Es wird schwieriger werden, kleine Penguin-Abstrafungen zu identifizieren

 

Bewertung von LinksFolge daraus: Gerade dann, wenn gut funktionierende Teilbereiche einer Website optimiert wurden, ist es wichtig für die unterschiedlichen Teilaspekte eines Internetauftritts regelmäßig einen  Competetive Link Detox durchzuführen. Das bedeutet, man setzt das eigene toxische Risiko ins Verhältnis zu den Mitbewerbern. Für jede Keyword-Gruppe, für jeden Teilaspekt einer Leistung.

Wer z.B. Webhosting anbietet, aber auch Webdesign, der muss seinen Internetauftritt und die Teikaspekte ins Verhältnis setzen zu den Mitbewerbern für das Thema Webhosting und genauso für das Thema Webdesign.

Ebenso muss ein Detox auf jeden Unterordner erfolgen, was die meisten Tool-Hersteller derzeit (noch) vor Probleme stellen wird. Und dann ab durch den Detox-Boost.

Das Google Penguin-Update wird jetzt ausgerollt. Derzeit crawlt Google das gesamte Internet und alle Seiten weltweit. In spätestens zwei Wochen werden alle Rankings “Google-Penguinifiziert” sein. In dieser Zeit kann es zu starken Schwankungen in den Suchergebnissen kommen, die unbedingt analysiert werden müssen.

 

Mögliche Szenarien:

  • Backlinks, also Seiten, die auf Ihre Webseite verlinken, werden von Google abgestraft und Sie erfahren es nicht. Diese bislang guten Links gelten jetzt als schlechte Links und können Ihre Position in Google massiv bedrohen.
  • Ein Mitbewerber setzt auf wichtige Bereiche Ihrer Webseite schlechte Links. Ihre Webseite stürzt in den Suchergebnissen ab oder entwickelt sich trotz Optimierung nicht nach vorne – Ihnen fällt das nicht auf, denn von den Links wissen Sie nichts. Die schlechten Links sorgen dafür, dass ein wichtiger Ordner Ihres Angebots nicht mehr in Google gefunden wird.
  • Ein Mitbewerber überoptimiert Ihre wichtigen Dienstleistungen. Er setzt allso massiv viele Links zu einer Keywordgruppe, die für Sie wichtig ist. Ihre Seiten stürzen ab, trotz OnPage-Optimierung.  Da nicht die ganze Domain vom Google Penguin bestraft ist, sondern nur einzelne Keywords, bemerken Sie es nicht.

Das neue Google Update öffnet nicht nur ein neues Kapitel im CyberCrime, es birgt auch die Möglichkeit, gegen Abstrafungen sehr schnell vorzugehen. Denn wer sein Link-Profil im Blick hat, der kann schnell reagieren.

 

Was ist Link Risk Management?

LinkRiskMangement ist die Durchführung proaktiver Link Audits und Disavows, also der Abwertung schlechter Links. Eine Link Audit sollte künftig wesentlich häufiger erfolgen. Die Empfehlung lautet wöchentlich.

Zum LinkRiskManagement gehört dabei

  • die Beobachtung der eingehenden Links,
  • die regelmäßige Bewertung dieser Links,
  • das Eliminieren toxischer Links
  • und die schnelle Rettung der Website – also Ihres Geschäfts – im Desasterfall.

 

Grundsätzliches zu Links:

  • Ein Link kann helfen oder schaden – vor der Einführung des Penguinalgorithmus war es gut, viele Links zu besitzen. Je mehr, desto besser. Negative Effekte von Links gab es nicht.
  • Links sind neben Content das wichtigste Signal für eine Positionierung in Google.
  • Das Linkprofil muss zur Branche passen.

 

Besonderheiten bei der Analyse des Backlinkprofils:

Es muss immer das ganzes Backlink Profil analysiert werden – wichtig sind die Verhältnisse. Es wäre nicht ausreichend, such auf den Informationen azs der Google Search Console auszuruhen. Diese zeigen nur einen Bruchteil der Links an. Wir prüfen derzeit neben den Search Console Informationen im Rahmen eines Audits 24 weitere Quellen.

 

Historische Penguin-Updates

Das sind die bisherigen Penguin-Updates und deren Auswirkungen

Penguin 1.0 am 24. April 2012 (Auswirkungen auf ~ 3,1% der Anfragen)
Penguin 1.1 am 26. Mai 2012 (Auswirkungen auf weniger als 0,1% der Anfragen)
Penguin 1.2 auf 5. Oktober 2012 (Auswirkungen auf ~ 0,3% der Anfragen)
Penguin 2.0 am 22. Mai 2013 (Auswirkungen auf 2,3% der Anfragen)
Penguin 2.1 auf 4. Oktober 2013 (Auswirkungen auf rund 1% der Anfragen)
Penguin 3.0 am Oktober 17, 2014 (Auswirkungen auf rund 1% der Anfragen)
Penguin 4.0 + Echtzeit am 23. September 2016

SEYBOLD ist zertifizierter Partner der LinkResearchTools

(Bildquelle: LinkResearchTools)

 

 

Inhalte richtig von Google erfassen lassen: So crawlt Google nachladende Inhalte

, ,

Interessante Info am Rande von der Google Dance Tokyo:

Dort bestätigen Gray Illyes und andere Googler, dass Google statischen HTML Inhalt nicht vor Ajax Content bevorzugt.

Google nimmt mit seinen Crawlern alles in den Index möglichst so, wie es der Besucher in seinem Browser sieht. Es ist also egal, ob die Seite durch Javascript/Ajax aufgebaut wird oder aus statischen Inhalten besteht.

Wichtig ist in so einem Fall, dass Javascript nicht durch robots.txt geblockt wird. Bei sehr langen Seiten, die erst durch scrollen aufgebaut werden, hat Google seine Schwierigkeiten, denn der Googlebot scrollt nicht.

Wichtig also auch für die Gestaltung neuer Internetseiten ist, die Seiten immer mit der Google Search Console zu prüfen und abzusichern, dass auch wirklich alle gewünschten Inhalte von Google erfasst werden können.

Quelle: SEM Post… Does Google Value AJAX Content Less Than Static HTML Content? http://www.thesempost.com/google-value-ajax-content-static-html/