Suchmaschinenoptimierung Stuttgart / Schorndorf – SEO ist Teil des preisgekrönten Sichtbarkeitsmanagement-Konzepts von SEYBOLD.

Top Platzierung in Google

Platz 1 in Google mit SEYBOLD

Platz 1 in Google: 80% der Suchenden klicken auf die Top Positionen, auf den ersten Platz in den Google Suchergebnissen und die auf Seite 1 befindlichen Suchergebnisse. So sagen zumindest einige Studien. Wenige suchen noch auf Seite 2 und 3, wenn die zuerst dargestellten Ergebnisse nicht zufriedenstellend sind.

Ungefähr die Hälfte aller Klicks wird über die Top-Positionen (Platz 1 bis Platz 3) generiert. Die passende Strategie, die Sichtbarkeit in den Suchmaschinen zu erhöhen, gilt nicht nur für Google. Ein Kanal übergreifendes Konzept wird notwendig, dass die wichtigsten Bereiche berücksichtigt. Ich beschäftige mich seit 1998 mit Internet Marketing und genau diesen Themen. Dabei ist zu berücksichtigen, dass gerade kleine und mittelständige Unternehmen mit begrenztem Budget hier deutlich benachteiligt sind. Viele hundert Kunden konnte ich seit 1998 bereits beraten und ein gemeinsames Konzept umsetzen. Über 1500 aktive Newsletter-Abonnenten, über 800 Twitter-Follower für die regelmäßige Ausgabe von SICHTBAR SEYBOLD, Platz 1 Management eBook Oktober 2014 bei Amazon und zahlreiche Nutzer für die Sichtbarkeits-App folgen meinen Tipps für Mittelstand und Kleinunternehmen auf Twitter, Facebook, Pinterest und hier im Blog.

 

Platz 1 die richtige Strategie?

Versprechen und Garantie für Platz 1 und andere Urban Legends

Platz 1 in Google ausreichend?

Grundlagen für eine Top Position

Die drei wichtigsten Ranking-Faktoren

Weiterführende Informationen und Zusatzinfos

Suchmaschinenoptimierung – Regeln ab 2017

SEO – Kosten und wie man ein Marketing-Budget kalkuliert – Hier finden Sie kostenlose Ressourcen

Ist Platz 1 in Google die richtige Strategie?

Früher war es die Aufgabe der Webmaster, eine Internetpräsenz auf Platz 1 in Google zu bekommen. Mittlerweile variiert dieses Ziel – vor allem, weil eine leichte Zielerreichung so nicht mehr möglich ist. Durch die fortgeschrittene Instrumentalisierung der Suchmaschine durch Alphabet, sind auch für schlechter platzierte Ergebnisse gute Klicks möglich, die zu einer Konvertierung führen. Durch Methoden wie Microdaten (Schema.org, Google Data Highlighter) können zusätzliche Ergebnisse auf der Suchseite auftauchen. Gerade bei Suchergebnissen schlägt vermehrt der Knowledge-Graph zu, der einen Nutzer schon so weit mit Informationen versorgt, dass dieser die Suchergebnisseite gar nicht mehr verlassen muss bzw. Platz 1 gar nicht mehr besucht werden muss.

Platz 1: google-knowledge-graph

Der Google Knowledge-Graph ermöglicht es einem schnell suchenden sofort Informationen zu liefern. Für SEO und SEA bedeutet dies ein Rückgang des Traffics, weil die Suchmaschine Google nicht verlassen werden muss.

Selbiges gilt auch für die Suche nach Sportergebnisse, Hotels, Flügen, Wetter und so weiter. Die vermehrte Verwendung von Microdaten führt dazu, dass eine Optimierung für Informationsseiten immer schwieriger ist, sofern man nicht der Markeninhaber ist.

Lokale Ergebnisse, wie Einzelhändler können durch eine optimierte LocalSEO-Strategie sehr gut davon profitieren, weil bei der Suche in Google nicht nur das Keyword, sondern auch der Ort, von dem aus gesurft wird, mit einbezogen wird. Unabhängig vom Wunsch des Nutzers kann anhand der IP-Adresse der ungefähre Standort festgelegt werden und dann wird das passende Suchergebnis präsentiert.

Wesentlich interessanter wird für den Besucher vermehrt nicht nur der Traffic, also wer auf die Seite kommt, sondern auch wie dieser dort zu einem Kunden werden kann, deshalb rückt die Platz 1 in Google-Strategie zugunsten des Sichtbarkeitsmanagements in den Hintergrund.

Die Rolle des Sichtbarkeitsmanagements

Sichtbarkeit bedeutet, dass die Angebote und Leistungen eines Unternehmens über die wichtigsten Kanäle präsent sind und wahrgenommen werden. Das gilt für die Werbung auf dem Fahrzeug, wie für den Unternehmensprospekt, die Webseite, die Google-Anzeigen, Facebook-Anzeigen bis hin zur Kommunikation mit dem Kunden via Newsletter, Twitter und anderen Kanälen. Dies zu bündeln ist eine wesentlich komplexere Aufgabe und heute um ein vielfaches wichtiger, als eine Position 1 in den Google Suchergebnissen, also Platz 1.Platz 1 in Google

Wandel der Bedürfnisse

Wiederkehrende Kunden, Bindung durch gute Leistung und die Visualisierung von potenziellen Kunden ist das Zauberwort der aktuellen Zeit. Damit wandelt sich das Bedürfnis, Platz 1 in Google zu erreichen, zugunsten einer Top-Platzierung und eines optimierten, ganzheitlichen Marketingkonzepts.

Trotzdem gelten entsprechende Regeln, die weiter unten beschrieben sind.

Zunächst ein Ausflug in die Scheinwelt obskurer Angebote:

Versprechen und Garantie für Platz 1

und andere Urban Legends

Im Internet und im Mail-Postfach finden sich täglich Angebote, die Platz 1 in Google versprechen und garantieren. Die günstigste Variante, die mir begegnete, war eine Top-Platzierung für einmalig 49,00 Euro. Solche Angebote sind Bauernfängerei oder Black-Hat-Seo, das eine dauerhafte Aussperrung aus den Suchergebnislisten nach sich zieht (ziehen kann).

Die jährlichen Kosten für SEO-Maßnahmen sind mindestens vierstellig. Wer mit Billigangeboten lockt, kann keine seriöse Arbeit liefern. Die Aufgaben, die sich an die Optimierung richten, werden jährlich schwieriger. Und Googles Richtlinien und Algorithmus-Updates tun ihr übriges.

Sind das seriöse Angebote für Suchmaschinenoptimierung? Platz 1 in Google oder Geld zurück

Sind diese Angebote für SEO seriös?

Beworbene Strategien sind meistens Konzepte aus „längst vergangener Zeit“. Durch täglich mehrere Updates des Suchmaschinenalgorithmus und sich ändernde Wertigkeiten in den Optimierungs-Maßnahmen, sind solche Angebote oft überholt. Trotzdem finden sich sich diese nach wie vor und die Tatsache, dass ein Unternehmen AdWords-Geld in die Hand nimmt, um für ein Suchwort gefunden zu werden, das bis zu 10 Euro pro Klick kostet (manche auch mehr), spricht schon im eigentlichen Verständnis dafür, dass die Maßnahmen nicht sonderlich wirtschaftlich angelegt sein können.

Aber auch seriöse Unternehmen, wie im obigen Bild aufgeführt, sind nicht dafür gefeit, durch möglicherweise fragwürdige Angebote, die im hauseigenen Forum propagiert werden, ins Zwielicht zu geraten. Es zeigt sich, wie leicht der eigene Name durch die Verwendung von vermeintlich unkontrollierten Foren, missbraucht werden kann. Ob eine solche Werbung dem Dienstleister dienlich ist? Ich glaube kaum.

Aber darin zeigt sich, wie wichtig es ist, im eigenen Angebot Gefahrenherde wie Kommentarspam, Forenbeiträge etc. zu unterbinden, die eine rekursive Wirkung für das eigene Image darstellen können.

Reicht Platz 1 in Google aus?

Viele Unternehmen streben eine Top Position gerade in Google an und lassen andere Suchmaschinen und Verzeichnisse außer Acht. Dass dies problematisch sein kann, sieht man mit jedem Update, das Google durchführt. Wenn die Positionierung der Unternehmenswebsite abfällt, dann steigen die Ausgaben für AdWords.

Ist die totale Abhängigkeit von Google aber überhaupt sinnvoll?

Google ist die dominierende Suchmaschine in Deutschland und auf der Welt (mit wenigen Ausnahmen). Während Yandex in Russland von hoher Bedeutung ist, kommt mit der Verbreitung von Windows Phone und Windows 10 vermehrt auch BING (Because Its Not Google) zurück ins Spiel. Wer jetzt denkt, dass diese Suchmaschinen keine große Bedeutung haben, der irrt gewaltig.

Mobile Suchanfragen machen bei Google bereits über 50% der Suchanfragen aus. Und die mobilen Apps von Amazon, Microsoft und Apple werden immer besser. Je genauer die Spracherkennung weiß, was gesucht wird, desto eher können die Anbieter der Spracherkennung auch auf eigene Suchergebnisse verweisen. Wer heute nach „Mercedes“ sucht, der wird von Siri schon zu Mercedes gelenkt, ohne dass es Google dazu benötigt. Platz 1 erfolgt sozusagen nicht in Google, sondern in dem konkurrierenden Suchsystem bzw. der Spracherkennung.

Die Uhr tickt für Google. Das bedeutet aber auch, dass eine reine Optimierung für Platz 1 in Google zwar noch immer wichtig ist, aber es darüber hinaus wesentlich wichtiger wird, den Inhalt so abzubilden, dass auch andere Suchroutinen diese ordentlich finden. Und vor allem bedeutet das, über die verschiedenen Kanäle wahrgenommen zu werden: Es benötigt Sichtbarkeitsmanagement. Sichtbarkeitsmanagement sorgt für den individuellen Platz 1 der Angebote. Damit wird der Platz 1 in Google nicht mehr der wichtigste, sondern es entsteht eine eigene Wertigkeit, die bestimmt wird, durch die verschiedenen Marketingkanäle, in denen der Kunde sich tatsächlich bewegt.

Trotz allem Wandel gelten noch immer die nachstehenden

Grundlagen für eine Top Position

 

Platz 1 zu erreichen braucht nicht nur Links und relevante Texte. Auch die Informationsgestaltung auf der Seite muss ordentlich durchgeführt sein.

Wer seine OnPage Faktoren prüfen möchte, der kann bei OnPage.org jederzeit für 99,90 Euro im Monat ein hervorragendes Tool zur Optimierung der eigenen Webseiten kaufen/mieten. Einen Platz 1 garantiert das leider nicht, aber die Möglichkeit, die eigene Website inhaltlich und auf die Keywords entsprechend zu optimieren, dass eine gute Position erreicht werden kann. Eine andere Alternative wäre, das Unternehmen seines Vertrauens mit einer Analyse, Auswertung und Optimierungsvorschlägen zu betrauen.

Was SEO-Tools leider nicht tun, ist eine vernünftige Entscheidung zu empfehlen. Dazu gehört nach wie vor Erfahrung und Know How.

Zu den On-Page-Faktoren, die auch heute noch wichtig sind, gehören:

ALT-Attribute (bei Bildern <img src=”…” alt=“”Ein“ Bild” />

ALT steht nicht für ein Alter, sondern für einen alternativen Text. Diese HTML-Tags kommen bei jedem Bild vor, das Sie auf einer Website verwenden. Im ALT-Tag wird das Bild beschrieben bzw. ein wichtiges Schlüsselwort mitgegeben. Zur SEO-Optimierung ein wichtiger Punkt.

Für Suchmaschinen wichtig sind Alternativtexte der Grafiken. Alle Suchmaschinen geben diesen Informationen eine hohe Relevanz, wenn es darum geht, die Webseite zu indizieren. IMG ALT-Tags sollten analysiert und entsprechend präpariert werden, um so eine höhere Relevanz zu erreichen.

ANCHOR-TAGS

Anchor-Tags werden von vielen Experten ignoriert oder falsch verstanden. Innerhalb der Natural-SEO-Strategie sollten die Anchor-Tags analysiert und optimiert werden. Eine so auf die Inhalte optimierte Website erhält eine höhere Relevanz. Ein SEO-REPORT/SEO-Audit beinhaltet in der Regel auch einen Bericht über die Anchor-Tags.

 

 

Texte schreiben für die Website

Wenn Sie sich mit jemandem unterhalten, sind Sie bemüht, dass Sie der Gegenüber versteht. Sie erhalten ein direktes Feedback auf Ihre Aussagen und registrieren mit allen Sinnen, ob Sie so verstanden werden, wie Sie das gerne hätten. Feedback ist in jeder Beziehung das wichtigste Kontrollinstrument. Im Web fehlt das direkte Feedback. Daher ist hier besondesr wichtig so normal wie möglich zu schreiben.

Niemand mag ein geschwollenes Gerede. Und vergessen Sie auch, dass Google im Text natürlich unbedingt eine hohe Dichte Ihrer Suchworte haben möchte. Bedenken Sie: Eine zu große Suchwortdichte schadet eher.

Vermeiden Sie, allzu häufige Wortwiederholungen – die Leute, die Suchmaschinenalgorithmen programmieren sind auch nicht auf den Kopf gefallen. Schreiben Sie ganz normal, wie Ihnen der Schnabel gewachsen ist – und vor allem verständlich.

 

Relevanz oder Content to Code Ratio (C2C)

Das Verhältnis zwischen Inhalt und Code bekommt eine zunehmend wichtigere Stellung im Algorythmus von Google. Häufig übersehen, ist das Verhältnis zwischen Code und Inhalt ein wichtiger Teil der SEO-Strategie und sorgt für ein hohes Maß an Relevanz. Jede einzelne Website sollte analysiert werden und dann für ein ausgeglichenes Verhältnis zwischen Code und Inhalt gesorgt werden. Beachten Sie dabei unbedingt, nicht zu viele Reizworte zu nutzen, da dies in Suchmaschinen zur Abwertung führt. Denken Sie viel mehr daran, Formatierung für Überschriften und andere, der bisherigen Text- und Formatierungstipps zu nutzen

Die Wertigkeit von externen Links

Bislang haben wir die Wertigkeit von externen Links nicht beachtet. Relevante und möglichst viele externe Links sind aber die beste aller Möglichkeiten, den Rang innerhalb Google, Yandex und Bing zu verbessern. SEO-Spezialisten haben ausgeklügelte Link-Building-Strategien ausgearbeitet, die externe Links von relevanten Seiten und Linkaustausch mit den wichtigsten Katalogen umfassen. In einfacher Weise kann man selbst für externe Links sorgen – gegebenenfalls kann sogar ein Linkaustausch mit einem Marktbegleiter sinnvoll sein (wenn das gewünscht und möglich ist).

Eine Optimierung des Rankings und damit Verbunden eine Top Position in Google zu erreichen, ist ein Ziel, das letztlich nicht um externe Links herum kommt. Dabei ist vor allem wichtig, Links von Webseiten mit einem hohen Pagerank zu erhalten, deren Inhalte eine Relevanz zu den eigenen Inhalten darstellen.

Dies ist sehr schwierig und erfordert entsprechende Recherchen, die aber über Suchmaschinen wie Google machbar sind.

Des weiteren kann es sinnvoll sein, Sekundärinformationen auf Zweit- und Dritt-Webseiten aufzubereiten. Wenn diese nicht gleichlautend sind, wie die eigenen Inhalte, kann dies mit der Zeit eine entsprechende Wirkung erzielen.

 

META TAG „Description“ & META TAG „Keywords“

Viele behaupten, das Meta-Tag “Description”, also die Beschreibung einer Webseite, wird von den Suchmaschinen nicht herangezogen, wenn es um Suchergebnisse geht. Falsch. Suchmaschinen wie Google, Ask, MSN etc. ziehen alle sowohl die Hinweise auf den Inhalt zur internen Berechnung des Rangs des Suchergebnisses heran. Folglich sollte dieser Bereich nicht allzu sträflich vernachlässigt werden. Sie sollten also großen Wert auf eine gute Beschreibung (auf die Wiederholung der wichtigsten Schlagworte achten!) legen.

Im Gegensatz dazu werde ich Sie jetzt schockieren: Ehrlich gesagt sind Ihre Keywords für Google gar nicht so interessant, wie gedacht. Die Suchmaschinenbetreiber interessieren sich nicht für die Schlüsselworte, die Sie Ihrer Website zugedenken. Aber: Es interessiert sie, ob eine Relevanz dieser Schlüsselworte zum Inhalt vorhanden ist. Folglich ist für Platz 1 auch die Vergabe von Schlüsselworten wichtig, die eine Relevanz zum textlichen Inhalt besitzen.

Vermeiden Sie in den Suchworten pauschal alle Worte zu verwenden, unter denen Sie aufgefunden werden wollen. Konzentrieren Sie sich auf die wichtigsten (inkl. Wort-Vredreher und Falshschreibungen). Optimieren Sie den Inhalt so, dass die wichtigsten Worte im beschreibenden Text (Ihrem Content) vorkommen. Wichtig wurden in 2015 vor allem die Proof Terms, also Keywords, die unmissverständlich belegen, dass es auf der Seite auch um das angegebene Thema geht.

 

SUCHWORT-OPTIMIERUNG (KEYWORD)

Wir analysieren Suchworte (Keywords) basierend auf die Anforderungen unseres Klienten und den derzeitigen Markttrends. Durch die Kombination verschiedenster SEO-Tools erarbeiten wir geeignete Suchworte und Suchwortkombinationen, um die effektivsten Suchworte für jedes Projekt zu finden.

2015 sind die Suchmaschinen so gut geworden, dass es für Platz 1 nicht mehr notwendig wird, „Verschreiber“ als Keywords einzuplanen. Wesentlich wichtiger hingegen ist, wie eine Person sucht. Für Platz 1 in Google gibt es für einen Sportwagen-Vermieter mit „Ferrari selber fahren“ (grammatikalisch falsch) wesentlich mehr Suchvolumen, als für das korrekte „Ferrari selbst fahren“. Solche Themen berücksichtigen wir, um Sie für Ihr Sichtbarkeitsmanagement auf Platz 1 zu positionieren.

TITLE UND META-TAG OPTIMIERUNGEN

Die Optimierung nach dem Seitentitel und den Inhaltsangaben ist eine wichtige Aufgabe, da Suchmaschinen diesen Informationen nach wie vor eine hohe Relevanz geben. Wir analysieren und optimieren die Seitentitel jeder einzelen Webseite und nicht nur die der Startseite. Dabei legen wir wert darauf, dass Seitentitel und Inhalt zusammenpasst, um eine höhere Relevanz zu erzeugen. Darüber hinaus optimieren wir weitere Metatags, wie z.B. Keywords und Description – damit Sie bei Google, Yandex, Bing und anderen optimal gefunden werden können.

IMG ALT OPTIMIERUNG

Für Suchmaschinen wichtig sind Alternativtexte der Grafiken. Alle Suchmaschinen geben diesen Informationen eine hohe Relevanz, wenn es darum geht, die Webseite zu indizieren. Wir analysieren und präparieren IMG ALT-Tags für jedes grafische Element auf Ihrer Website, um durch höhere Relevanz zu besseren Suchergebnissen zu kommen.

RELEVANZ ODER CONTENT TO CODE RATIO (C2C)

Das Verhältnis zwischen Inhalt und Code bekommt eine zunehmend wichtigere Stellung im Algorythmus von Google. Häufig übersehen, ist das Verhältnis zwischen Code und Inhalt ein wichtiger Teil der SEO-Strategie und sorgt für ein hohes Maß an Relevanz. Wir analysieren jede einzelne Webseite und sorgen für ein ausgeglichenes Verhältnis zwischen Code und Inhalt. Dabei beachten wir, nicht zu viele Reizworte zu nutzen, da diese in Suchmaschinen zur Abwertung der Webseite führen.

LINKS

Relevante und möglichst viele externe Links sind die beste aller Möglichkeiten, den Rang innerhalb Google, Yandex und BING zu verbessern – bis auf Platz 1. Unsere Link-Building-Strategie umfasst externe Links von relevanten Seiten und Links auf dazu passenden Portalen, Blogs etc.

SUCHMASCHINENANMELDUNG

Eine manuelle Suchmaschinenanmeldung in den wichtigsten Suchmaschinen und Katalogen, wie z.B. Google, MSN, Yahoo, Lycos, AOL, Excite und anderen qualitativ hochwertigen Suchmaschinen, sorgt für mehr Besucher auf Ihren Webseiten. Die automatische Anmeldung von Submission-Software wird von vielen Suchmaschinen zwischenzeitlich als SPAM gewertet, daher legen wir wert darauf, Ihre Website manuell anzumelden. Das ermöglicht uns, die Richtlinien jeder einzelnen Suchmaschine zu beachten – damit Sie zukünftig besser gefunden werden. Gleiches gilt vor allem für unsere LocalSEO Maßnahmen, die Ihnen zu Platz 1 in den Suchergebnissen von anderen Verzeichnissen verhelfen.

Platz 1 in Local SEO Apps und Verzeichnissen

KATALOG-EINTRÄGE

Wir tragen Ihre Website in freien Katalogen, wie zum Beispiel DMOZ ein. Durch jahrelange Erfahrung haben wir eine Liste von Katalogen zusammengetragen, die hochwirksam für Suchmaschinenmarketing Verwendung finden. Dabei beachten wir je nach Projekt auch die passenden Kataloge, so dass Business-Websiten nicht in Unterhaltungskatalogen landen.

ARTIKEL, PR, NEWS UND BLOGGING

Wir haben die Erfahrung, Suchmaschinen relevante Artikel für Ihre PR zu erstellen. Sei es ein Artikel für eine Webseite, ein Blogartikel, PR für eine der zahlreichen PR-Suchmaschinen oder einem Artikel für eine Lexikonwebsite – wir sorgen dafür, dass dieser Artikel veröffentlicht wird. Dabei achten wir sorgsam darauf, nicht gegen Googles doppelte Inhalts-Abwertung (Google-Duplicate-Content-Issue) zu verstoßen.

 

 

Wichtige Faktoren für eine gute Position in Google 2015

Searchmetrics hat die wichtigsten Faktoren 2015Faktoren und die Veränderung zum Vorjahr in einer sehr schönen und überschaulichen Infografik aufgebaut.

So sind die weiteren, wichtigsten Erfolgsfaktoren:

– Relevante Keywords zum Thema
– Anzahl verwendeter Worte
– Proof Terms
– Click-Rate
– Mobiles Design
– Zeit der Besucher auf der Seite
– Sichtbarkeit der Domain

Platz 1 in Google - das sind die Rankingfaktoren 2015

Quelle: Searchmetrics, direkt verlinkt.

 

Die drei wichtigsten Rankingfaktoren

Update (März 2016): In einem Hangout (Google Q&A vom 23.03.2016) sagt Andrey Lipattsev, Google Engineer, dass die drei wichtigsten Faktoren für das Google Ranking die folgenden Punkte sind:

  1. Links
  2. Content
  3. Rankbrain

 

Damit wird der oft in Frage gestellte Wert von Links (innerhalb, nach extern und von extern) bestätigt als wichtigster Faktor neben dem Content. Mit Content ist gemeint, dass sowohl die inhaltliche Struktur des Contents (H1, H2, Fett, Texte…) stimmen müssen, als auch der Inhalt mit Relevanz zum Thema passen soll.

Rankbrain, eigentlich ein Filter, ist als dritter Rankingfaktor wichtig, weil Google täglich sehr viele Suchanfragen hat, die in exakt dieser Form noch nie gestellt wurden. Das bedeutet, dass Texte, Bildbeschreibungen und ähnliches sehr gut mit dem Keyword und den damit korrespondierenden Keywords (Recherche!!!) passen muss.

Ein Beispiel für Rankbrain: Gibt man in Google als Suche ein „langhaariger Grüner“, dann gibt das Ergebnis Bilder und den Wikipedia-Eintrag von Anton Hofreiter, Bündnis 90/Die Grünen, aus – und das, obwohl nirgends im Text die Kombination „langhaarig“ und „Grün“ vorkommt.

Langhaariger Grüner - Anton Hofreiter

Suchmaschinenoptimierung – Diese Regeln gelten ab 2017

 

Seit 2017 sollte nicht mehr in Rankings für ein einzelnes Keyword analysiert werden. Es gilt eine Website für ein bestimmtes Keyword zu optimieren, aber für ein Keyword-Themengebiet zu analysieren. Ideal geht das mit der Google Search Console, in der alle Suchanfragen überprüft werden können.

Um auf Seite 1 zu gelangen, gilt seit 2017 das folgende Prinzip:

  • Gute und saubere Links bringen eine Website auf die Seite 1 von Google
  • OnPage-Optimierte Inhalte und das User-Verhalten sind ausschlaggebend dafür, wo sich das Webangebot unter den Top 10 eingliedern wird.
  • Steigerung des Nutzerverhaltens wird wichtiger Rankingfaktor.

SEO-Kosten und Marketing-Budget

 

Die Kosten für SEO in das bestehende Marketing-Budget zu integrieren ist sehr schwierig. Fast nie lassen sich die Kosten für die Optimierung in exakte Zahlen fassen. Unabhängig davon kann Google mit seinen permanenten Algorithmus-Updates einen gehörigen Strich durch die Rechnung machen. Endlich ist die Website mühevoll unter den Top Ten angekommen, dann ändern ein paar Parameter bei Google schnell das Ranking und die Arbeit geht weiter. SEO ist also nicht eine abgeschlossene Dienstleistung sondern vielmehr ein fortlaufender Prozess. Deshalb ist es notwendig, sich dafür ein Budget einzuplanen.

Die Kosten für SEO sind abhängig von

  • Branche, Thema und Nische des Unternehmens
  • Status der Website (lässt sich am besten mit einer Sichtbarkeitsanalyse ermitteln)
  • Wie gut ist das Linkprofil (gute Links vs. schlechte Links; Link Risk Management)

Um die Budgets entsprechend einplanen zu können, haben wir folgende Kostenübersichten und Kalkulatoren zusammengestellt:

 

 

Weiterführende Informationen für Platz 1 und Optimierung

http://searchengineland.com/google-won-pr-battle-seo-thats-good-thing-232761
http://searchengineland.com/half-of-google-search-is-mobile-232994
http://www.searchmetrics.com/de/knowledge-base/ranking-faktoren-infografik-2015/

 

Bestimmt interessiert Sie auch:

Klickwahrscheinlichkeiten in den Suchergebnissen

Welcher Platz zwischen 1 und 10 hat die besten Klickwahrscheinlichkeiten und welche Position ist eher schlecht?

Lesen Sie hier

 

Was darf SEO kosten?

Was kostet die Optimierung für Suchmaschinen? Mit welchen Kosten muss man kalkulieren?

Lesen Sie hier

 

Wie optimiert man die Sichtbarkeit einer Webseite für mehr Klicks?

Wie findet man die richtige Seite für eine Optimierung, um eine Keyword-Kanibalisierung zu vermeiden?

Lesen Sie hier

SEO

SEO – Was ist SEO?

Was ist SEO?

SEARCH ENGINE OPTIMIZATION (SEO)

SEO ist die englische Bezeichnung für Suchmaschinenoptimierung. Darunter versteht man den Prozess, die Anzahl an Besuchern einer bestimmten Website zu maximieren, indem sichergestellt wird, dass die Website weit oben in den Suchergebnissseiten einer Suchmaschine erscheint.

 

BereichThemenWeiterführende Links
OnpageServergeschwindigeit, Meta-Daten, Inhaltsstruktur, Bilder, Architektur der Website, interne und externe Verlinkung, Content, Keywords, strukturierte Daten, Mobile SEOPlatz 1 in Google
Sichtbarkeitsanalyse
Content-Marketing
OffPageBacklinks (NO-Follow, Do-Follow, Nicht-toxische-Links), Local SEO, AdWords/Facebook Ads etc., Social Media, Link Risk Management und Link AuditsLinkbuilding
Link-Risk-Management
AdWords
Local SEO
Social Media
Link Audit

SEO

Unter SEO (engl.: Search Engine Optimization, dt.: Suchmaschinenoptimierung) versteht man alle Maßnahmen, die das Ranking einer Website in den SERPs beeinflussen, dem organischen Suchmaschinenranking in den unbezahlten Suchergebnissen (Natural Listings).

SEO ist der große Bruder des SEM (engl.: Search Engine Marketing, dt.: Suchmaschinenmarketing). Beide wiederum sind Bestandteil des Online Marketings ist.

Suchmaschinenoptimierung lässt sich in zwei Aufgabenbereiche gliedern: OnPage- und OffPage-Optimierung.

Unter OnPage versteht man alle Maßnahmen und Anpassungen, die auf der eigenen Website durchgeführt werden können. OffPage dagegen bezeichnet alle Maßnahmen, die nicht durch Änderungen der Website selbst geschehen, sondern von äußeren Einflüssen, wie zum Beispiel Backlinks, abhängig sind.

Das Gegenstück zu SEO ist „Negative SEO“, worunter alle Maßnahmen fallen, die zu schlechteren Rankings von Mitbewerbern führen sollen, statt zu einem besseren Ranking der eigenen Webpräsenz.

 

Weiterführende Informationen: Platz 1 in Google

 

Historisches zu SEO

Suchmaschinenoptimierung gibt es nun schon seit rund 20 Jahren und wer auf den entsprechenden Konferenzen unterwegs ist, erfreut sich über die vielen Geschichten von Menschen wie Rand Fishkin und anderen Veteranen des SEO.

Diese Dinge sind nun in einem ca. 40 minütigem Film zusammengefasst, der in voller Länge unten angeschaut werden kann.

„SEO – The Movie“

 

Rand Fishkin auf der SMX 2017 MUC

SMX 2017 – Was bringt die Konferenz in München?

Eine Konferenz zum 2-Tages-Ticketpreis von ~ 1.400 Euro zzgl. MWSt.

Was kann man dafür erwarten?

Die kurze Antwort: Ziemlich viel. Viele Kollegen aus Agenturen, Head of SEOs großer Unternehmen, Affiliates – und jede Menge Best Practice, auch für Fortgeschrittene.

Opening Keynote: Rand Fishkin – The Search Landscape in 2017

Rand Fishkin auf der SMX 2017 MUC

 

Wie sieht die Google Suchmaschinenlandschaft in 2017 aus? Rand veröffentlich in seinem Vortrag weltweit erstmalig die aktuellen Forschungsergebnisse von MOZ.

Suchanfragen Mobile vs Desktop

Täglich werden über 2 Trillionen Suchanfragen an die Suchmaschine gestellt. Eine Suchanfrage dauert dabei durchschnittlich 55 Sekunden.

12% der Suchergebnisse geht direkt zu anderen Google Angeboten.

8% nutzen den „Zurück-Button“, um wieder zum Suchergebnis zu kommen und ein anderes Angebot aus den Ergebnissen zu wählen.

Spannend dabei: 21% ändern die Suchanfrage nochmal, bevor sie diese an Google abschicken.

Dabei gibt es Unterschiede, so Rand Fishkin, zwischen mobiler Suche und der Desktopsuche. Während es zwar auf mobilen Endgeräten wesentlich mehr Suchanfragen gibt, ist dort der Traffic im Vergleich zu Desktopsuchen deutlich hinterherhinkend. 57% der mobilen Suchanfragen enden ohne einen Klick, weil die Antwort bereits vom Endgerät gegeben wurden. 41% werden dann in der organischen Suche tatsächlich geklickt, während auf AdWords lediglich 2% der Klicks gehen.

Auf dem Desktop schneidet das besser ab, wenn auch nur wenig (Paid-Search bei 2,8%, 62% Klick auf organische Ergebnisse und 35% klicken tatsächlich gar nichts an).

Die Problematik dabei ist, dass viele Snippets bereits die Ergebnisse der Suche anbieten.

Featured Snippets – die Zukunft von SEO?

Die Optimierung von Featured Snippets bietet damit natürlich die Chance, direkt auf Suchanfragen mit einem Ergebnis reagieren zu können. Der Trend, dass sich Google von der Suchmaschine zur Antwortmaschine bewegt, ist mehr als deutlich. Dabei bedeutet aber auch, dass mehr Antworten, die direkt in den Suchergebnissen gezeigt werden gleichzeitig weniger Klicks auf AdWords bedeuten. Diese Entwicklung scheint Google ganz bewusst zu gehen, indem man sich zur Antwortmaschine wandelt.

 

Braucht man 2017 eigentlich noch eine App?

90% der mobilen Nutzung fällt auf Apps zurück. Dabei sind 10% Browser (ja, Browser zählen auch als App). Im Durchschnitt nutzt ein Smartphone-User gerade mal 3 Apps. Meist sind das Facebook, Google Maps und eine dritte App.

Wozu also 2017 noch Apps entwickeln?

Tatsächlich ist die Entwicklung weg von Apps und hin zu PWA (Progressive Web Apps) ein klarer Trend.

Wohin klickt der Nutzer nach einer Suche?

Die Click-Through-Rate ist zwischenzeitlich ein Rankingfaktor für die Google Suchergebnisse. Was aber taucht nach einer Suche in den Ergebnisse auf und worauf klickt der Nutzer nun tatsächlich?

  • AdWords ist mit 50% in den SERPS vertreten, aber nur 3% der Klicks fallen auf AdWords.
  • Google Shopping ist mit 9% vertreten, aber nur 0,55% der Klicks gehen auf die Produkte.
  • Youtube-Ergebnisse kommen zu 6.3% der Suchen und erhalten durchschnittlich 1,8% der Klicks.
  • Der Knowledge-Panel taucht bei 38% der Suchen auf – und wird 0,5% geklickt.
  • 49% der Suchen werden gar nicht geklickt.

 

Rands Ausführungen waren ein sehr interessantes Abbild der Google Suche 2017.

 

Google Analytics Power Reporting für SEO und SEA

Andrew Garberson von Luna Metrics zeigte mehrere Varianten, die sich lohnen, mit Google Analytics zu verfolgen. So sollte jeder drei Levels von Reporting nutzen.

Das tägliche Basic-Reporting umfasst vor allem die Veränderungen im organischen Traffic während das monatliche Reporting ein Multi Channel Reporting ist und verschiedene Punkte darlegt

  • Conversions: Organic vs Paid
    Conversions: Search vs Other
  • SEO Landing Page Traffic
  • Budget Tracking

Und so weiter. Die Ansätze von Andrew sind mit vielen Beispielen direkt übernehmbar für das eigene Reporting und Überprüfung der Analytics Daten.

 

Die Wahrheit über SEO Mythen von John Müller

Googles Webtrends Analyst John Müller räumte auf mit SEO-Mythen und gibt auf die zahlreichen Fragen aus dem Publikum geduldig Antworten. Leider sind die Antworten oft im typischen „Google-Nebulös“ gehalten – Auf keine der Fragen gibt es eine eindeutige Antwort.

John Müller Google

Beispiele:

  • Seiten, die es nicht mehr gibt, wären technisch korrekt mit einem 410 aus dem Index zu kegeln, praktisch reicht aber auch ein 404 (dauert halt minimal länger).
  • Indexierung von Infinite Scroll funktioniert manchmal für 2 oder 3 Seiten, aber der Googlebot bleibt nur eine kurze Zeit und Lazy Loading (also das Laden von Bildern dann, wenn sie ins Bild kommen) kann der Googlebot nicht. Oder manchmal doch? Man weiß es nicht zu 100%. Zugegeben ist das aber auch schwer – ich vermute, dass nicht mal Google weiß, wie die Zusammenhänge der Crawlings und Rankings tatsächlich funktionieren.

Lösungsansätze für immense Herausforderungen

zeigt Oliver Borm (Google) auf. Dabei stellt er zunächst das Cross Device Tracking in den Mittelpunkt, weil sich Menschen sowohl auf mobilen Geräten als auch auf dem Desktop bewegen. Gerade bei AdWords verwendet man hier die künstliche Intelligenz für das Smart Bidding. So bewegt sich Google hier von Mobile First zu AI First und zeigt Smart Bidding mit zwei Klicks im neuen AdWords (AdWords next), das dieses Jahr ausgerollt werden soll.

 

In den Nachmittagsvorträgen habe ich mir Google Tag Manager Hacks zu eigen gemacht, gesehen was die Search Console alles für mich tun kann, wie man idealerweise auch für SEO ein Split-Testing aufsetzt und was alles für die Erstellung eines ordentlichen Feature Snippets notwendig ist.

Interessante Gespräche mit Marcus Tandler oder Christoph Cemper rundeten den Tag für mich ab.

Highlight des ersten Tages aber war die Keynote: „Was wir immer schon wissen wollten: Q&A mit Rand & Wil“, bei dem Rand Fishkin und Wil Reynolds aus dem Nähkästchen plauderten. Das sind auch genau die Momente, die eine solche Konferenz so wertvoll machen und viele neue Denkanstöße oder Bestätigungen mitbringen.

 

Insgesamt ist die Wertigkeit für ein solches Ticket immer wieder gegeben durch den interessante Know How Transfer, den man erlebt. So standen am zweiten Tag wichtige Punkte auf dem Programm wie z.B. das Thema Relaunch bei großen Webseiten oder auch die Problematiken bei internen Verlinkungen.

Aber bei jeder SMX ist ein Vortrag dabei, der allein schon (fast) die Gebühren Wert ist. Für mich – und für viele andere – war das Wil Reynolds dddmit seinem konkreten Ansatz …

… „People First vs Google First“.

Wil berichtet davon, wie er über viele Jahre von 2009 bis 2012 weltweit an oberster Stelle in den Suchergebnisse stand für SEO Agency, SEO Agencies, SEO Consultant, SEO Consultants usw. Tatsächlich hat sich nach seinen Aussagen nicht ein einziges Geschäft über diesen Vorteil angebahnt, weil die Menschen einfach anders suchen.

Das ist auch der zentrale Ansatz – und vielleicht hat mir der Vortrag von Wil deshalb so gut gefallen, weil er sich so deckt mit dem, wie sich Seybold gewandelt hat seit 2013 mit dem Ansatz des Sichtbarkeitsmanagements.

Wil geht grundsätzlich davon aus, dass Menschen nach jemandem suchen, der ihnen helfen kann – und zwar lokal in ihrer Nähe und nicht irgendwo auf der Welt. Und Personen, denen geholfen werden konnte, danken oftmals mit Weiterempfehlungen, was Wil zu dem Ausspruch bringt „Thanks are better than Ranks“.

Ein zufriedener Kunde bringt mehr neues Geschäft für die Agentur, als es die Rankings tun können.

Wil und seine Agentur hören den Kunden ihrer Kunden zu und versuchen herauszufinden, was deren Antrieb ist, wenn sie etwas in Google suchen. Denn es ist wichtig, die Gefühle herauszuarbeiten, die der Suchende hat, anstatt die richtigen Worte zu finden. Worte können je nach Tonation andere Bedeutungen haben (merkt man z.B. schon daran, dass E-Mails viel eher falsch verstanden werden können, als wenn man miteinander telefoniert – E-Mails tragen keine Emotionen).

Dass er damit Erfolg hat, belegt Wil Reynolds mit zahlreichen Beispielen seiner Kunden.

Erfolg in SEO ohne Ranking-Verbesserung

Allein eine Änderung der Meta-Daten mit weniger technischer Terminologie brachte 57% mehr Click-Through und 59% höhere Conversion. Und das alles, ohne dass sich die Position in den Suchergebnissen nur im Geringsten veränderte.

 

SMX München möchte man nicht missen

Mein Fazit für die SMX ist: Man möchte diese Konferenz nicht missen. Nicht nur, dass der Termin für Networking erstklassig geeignet ist und man zahlreiche (neue) Freundschaften schließt – es bietet sich darüber auch der direkte Austausch auf einen sehr hohen Level. Vorträge und Hands-On haben fast durchgehend eine hohe Wertigkeit. Für jeden sind eine Menge technischer Fertigkeiten dabei und was noch wesentlich wichtiger ist: Es gibt Denkanstöße und manchmal ganz neue Sichtweisen.

SMX 2018 also schon mal im Kalender vormerken: 20.03.2018 – 21.03.2018

 

 

Google SEO Tipp wie lange dauert seo

Wie lange dauert es, bis Suchmaschinenoptimierung Ergebnisse liefert?

Wie lange dauert es, bis SEOs mit Suchmaschinenoptimierung erste Ergebnisse liefern können?

Das ist eine der Fragen, zu denen veröffentlichte Google auf dem Google Webmasters Video-Kanal ein „How-To“-Video darüber (wir berichteten auf den Social Media Kanälen davon bereits am 14.02.).

Ein Punkt darin war die Frage: „Wie lange dauert es, bis eine Website Verbesserungen sieht, die durch SEO-Änderungen kommen?“

Googles Maile Oyhe sagte:

„In den meisten Fällen werden SEOs vier Monate bis zu einem Jahr benötigen, bis Ihr Unternehmen erste Verbesserungen durch die Umsetzung erlebt. Und dann werden Sie einen potenziellen Nutzen daraus sehen.“

Google SEO Tipp wie lange dauert seo

Spannend daran ist, dass Google sich überhaupt zu einer solchen Äußerung hergibt. Eine Frage, die sich SEO-Neulinge stellen oder aber Unternehmer, die wissen wollen, wie schnell sich die Veränderungen bemerkbar machen. Es dauert als zwischen 4 Monaten und einem Jahr, bis ein SEO Probleme identifiziert, die Änderungen vornimmt und dann die Verbesserungen in den Suchergebnissen bemerkbar werden.

Das Video ist eine gute Aufklärung, um vor allem SPAM-SEOs zu identifizierten. Viele Website-Besitzer wollen die Ergebnisse aus SEO-Arbeit schnell erleben, aber das ist oft unrealistisch, wenn man auf negativen SEO-SPAM verzichten möchte. Sogenannte Garantien bedeuten also meist aggressive Spam-Techniken oder schnelle Rankings über Google AdWords.

Rankings in 2 Wochen sind einfach unrealisitisch ohne den Einsatz von „dunklen Methoden“. Im Gegenteil, das kann auch zu Abwertungen führen. (Vgl. hierzu: Google Penguin 4.0 – Echtzeit Abstrafungen).

Ausnahmen für schnellere Ranking-Ergebnisse gibt es natürlich auch: Überall dort, wo technische Probleme bestehen, wie z.B. Blockieren des Googlebots beim Crawling, Verwendung falsche Meta-Tags (z.B. NoIndex-Tag) oder dem entfernen massiver negativer Links (Link Risk Management) sind schnellere Ergebnisse realistisch.

Das Video aus dem Google Webmasters Kanal sehen Sie hier:

 

Weitere Informationen zum Thema:

SEO Irrtümer - 9 Gründe für schlechtes Ranking

SEO-Irrtümer: Die Kunst unsichtbar zu bleiben

Heute erscheint bei Impulse Online das Interview zum Thema SEO-Irrtümer mit mir.

SEO-Irrtümer: 9 Gründe, warum Ihr Unternehmen bei Google unsichtbar ist

Und darum geht es:

Alle wollen die Nummer 1 sein – das gilt auch für die Suchergebnisse bei Google. Doch viele Unternehmen verbauen sich die Chancen auf eine Top-Platzierung: weil sie auf SEO-Irrtümer hereinfallen. Impulse zeigt die 9 häufigsten SEO-Irrtümer auf.

  • Irrtum 1: Wenn ich wichtige Schlüsselbegriffe auf meiner Seite verstecke, nutzt das meiner Platzierung bei Google.
  • Irrtum 2: Einmal optimiert, bleibt meine Seite für immer auf den vorderen Plätzen bei Google.Irrtum 3: Je häufiger ich das Keyword in einen Text packe, desto besser wird er gefunden.
  • Irrtum 4: Das beste Keyword für meine Seite ist eins, das möglichst viele Menschen suchen.

  • Irrtum 5: Mit gekauften Links von fremden Webseiten kann ich mein Ranking ganz einfach verbessern.
  • Irrtum 6: Google-Optimierung wirkt sofort.
  • Irrtum 7: Alles, was es zu SEO zu wissen gibt, kann ich einfach googeln.
  • Irrtum 8: SEO überlasse ich einfach meinem Programmierer.
  • Irrtum 9: Wenn meine Kunden mich über Google finden können, brauche ich mich nicht mehr weiter um Marketing zu kümmern.

Den ausführlichen Text gibt es bei Impulse.de

 

 

Außerdem:

Twitter-answer-by-gary-illyes

Verlorene Backlinks – Wo SEO Tools uns täuschen

Im Rahmen eines Kundenauftrags zur Sichtbarkeitsanalyse habe ich mich den Backlinks gewidmet. Ganz speziell den verlorenen Links. Dabei sind mir spannende Dinge aufgefallen.

AHREFS, ein bekanntes und beliebtes Tool zur Analyse von Backlinks, lieferte mir zahlreiche verlorene Backlinks in den letzten Wochen.

Der obige Screenshot zeigt verweisende Seiten mit z.T. sehr ordentlichen Domain Ratings auf Weiterleitungen, bei denen der Link entfernt wurde („Link removed“).

Eine Sichtprüfung des Links jedoch ergab, dass die Verlinkung sehr wohl noch funktioniert. Gemessen mit den Link Redirect Trace, einem Chrome-Plugin Link Research Tools, zeigt die tatsächliche Verlinkung.

LinkRedirectTrace - Beweis der Weiterleitungen

3xx Weiterleitungen und ihre Bedeutung

Der funktionierende Link zeigt eine Weiterleitungen vom Typ 301 und vom Typ 302. Per Definition sind diese wie folgt einzustufen:

301 – Weiterleitungen gelten als „permanent verschoben“. Diese Verlinkungen geben alle Linkpower an den Ziellink weiter.

302 – Weiterleitungen gelten als Status „found“ und sind Weiterleitungen, die kein Rankingpower weitergeben, so schreibt z.B. OnPage.org in seinem Wiki.

 

Mit diesen Informationen über Redirects im Hinterkopf bedeutet das, dass ein Link, der via 302 weiterleitet, keine Rankingpower übergibt und somit wie ein „removed Link“ zu werten ist.

Wenn dem so ist, dann macht ahrefs alles richtig (übrigens auch Majestic und MOZ sehen das so).

 

Widerlegung: 302 übergibt Rankingpower

Leider gibt es zahlreiche Beispiele dafür, dass 302-Weiterleitungen eben doch Rankingpower mit geben. Zu allererst ist da die Analyse meines Kollegen Derek Devlin. Er konnte nachweisen, dass Penalties, also Abstrafungen von Google, sehr wohl weitergegeben werden.

 

Christoph Cemper von Link Research Tools konnte in einem Test nachweisen, welche Weiterleitungen momentan den höchsten Einfluß auf das Ranking in den Suchmaschinen hat. Im Juli 2016 hat Google bestätigt, dass alle 30x-Weiterleitungen auch PageRank vererben.

Auch wenn PageRank tot ist, bedeutet dies, dass die Wertigkeit eines Links weitergegeben wird, egal mit welchem Redirect dies geschieht.

Dazu habe ich mich bei Gary Illyes rückversichert.

Twitter-answer-by-gary-illyes

Generell denke ich: 30x-Weiterleitungen sollten so verwendet werden, wie sie von W3C gedacht waren. Und „found“ ist einfach etwas anderes als „permanently moved“. So sollte das auch für die meisten Suchmaschinen gelten – offensichtlich nicht aber für Google.

Wie Cemper zeigte, sind 302 Redirects im Moment der schnellste Weg bei einem Relaunch zur Backlink-Erhaltung.

Wenn Google sowohl die Abstrafungen als auch die Rankingpower be 30x-Weiterleitungen weitergibt, müssen die Ergebnisse von ahrefs, MOZ und Majestic differenziert betrachtet werden.

Und dies ist – wieder einmal – der Beweis für die alte SEO-Weisheit „Verlasse dich niemals auf ein einziges Tool“.

 

Weiterführende Informationen:

301 Weiterleitungen in großen htaccess Dateien – Falsche Empfehlung

Link Building

Verlasse dich nie auf nur ein SEO-Tool

 

Black Hat SEO vor dem Aus

Im September 2014 bereits berichteten Betreiber von privaten Blog-Netzwerken (PBN) darüber, dass Google damit begonnen hat, diese Netzwerke zu deindexieren.

Damit läutete Google konzentrierte Maßnahmen gegen Black Hat SEO ein. Laut Search Engine Roundtable sind bereits tausende PBNs abgestraft. Zahlreiche Betreiber solcher Sites berichten bereits über den Niedergang ihrer Netzwerke. Ist Black Hat SEO damit vor dem Aus?

Black Hat SEO – Was ist das?

Der Begriff Black Hat kommt aus der Hacker-Szene. Ein „Black Hat“ Hacker ist ein Hacker, der Techniken aus niedrigen Beweggründen nutzt, um Computer zu manipulieren, um damit an Daten zu kommen, die er verwenden kann (Quelle: Moore, Robert (2005). Cybercrime: Investigating High Technology Computer Crime. Matthew Bender & Company, Seite 258).

Black Hat SEO sind demzufolge alle Maßnahmen, die aus dem Grund durchgeführt werden, eine Website mit allen Mitteln kurzfristig auf Platz 1 für ein bestimmtes Keyword zu platzieren.

Was sind PBN?

PBN oder Private-Blog-Networks (private Blog Netzwerke) dienen genau einem solchen Black Hat Zweck. Ein Black Hat SEO kauft viele Domains mit unterschiedlichen Names und Orts-Angaben (sprich: Er verwendet zahlreiche unterschiedliche „Handles“, die nur den Zweck haben zu verschleiern, wer tatsächlich der Besitzer einer solchen Domain ist). Dies erfolgt, damit Google nicht nachvollziehen kann, wer hinter den Domains eigentlich steckt. Durch den Aufkauf abgelaufener Domains mit einem hohen Wert für SEO (gute Backlinks bzw. insgesamt gute Verlinkung und entsprechender Reputation) werden dann weitere Domains zugekauft und in das PBN integriert. Es werden Seiten angelegt, die so untereinander verlinken, dass eine bestimmte Seite gewinnbringend und kurzfristig im Ranking auf die Top-Position manövriert werden kann.

Bei diesen Domains wird ganz konkret das Impressum verschleiert, damit Google hier keinen Zusammenhang zwischen den Domains und der eigentlichen Zielseite erkennt. Zudem werden die Domains bei unterschiedlichen Hostern betrieben, um auch eine räumliche Trennung darzustellen.

Unlängst hat der Gewinner des „größten SEO Wettbewerbs“ von XOVI mit genau diesen Methoden den Wettbewerb und damit einen Smart gewonnen. Noch (25.09.2014) hält sich Rankboost ganz oben mit einem Angebot, das inhaltlich komplett deplatziert ist. Andere Teilnehmer, die über viele Wochen große Energie in inhaltlich hervorragende Seiten investiert haben, wurden mit einer solchen Maßnahme brüskiert.

Solche PBNs dienen also dazu, den Google Index zu spammen, mit informationen

Was unternimmt Google gegen Black Hat SEO?

Bislang war Google ziemlich machtlos gegen ein solches Vorgehen und solche Verschleierungsmethoden boten wenig Möglichkeiten, diese Seiten zu erkennen.

Wenn ein PBN ordentlich aufgestellt ist, dann wird das Impressum „vergessen“, denn wenn es als Bild dargestellt ist, kann es Google lesen. Also kann Google Seiten ohne Impressum identifizieren und ggf. abwerten. Ebenso Seiten mit einem Bild-Impressum.
Schwieriger wird es, wenn ein bewusst gefälschtes Impressum verwendet wird.

Über kurz oder lang muss sich die Black Hat SEO-Gemeinde neue und andere Methoden ausdenken. In jedem Fall müssen diese Methoden überdacht werden, denn Google schläft nicht.

Die Strategie von Google ist klar erkennbar:
Der Pinguin schaut nach Links aus Netzwerken.
Panda 4.0 bewertet Inhalte.
Payday Loan 2.0 rechnet mit besonders „spammigen“ Suchanfragen
Erst kürzlich gab es diese entsprechenden, umfangreichen Updates (Mai 2014).
Dann muss man die Korrekturen an Verlagsseiten (Reduzierung von Pagerank, um diese nicht (mehr) so wichtig darzustellen für Backlinks) als Maßnahme zur Vorbereitung für einen Schlag gegen die PBNs sehen.
(Übrigens: Wer den ganzen Zoo von Google kennenlernen will, also sehen möchte, welches Tier für welches Update steht, der findet hier einen ordentlichen Artikel darüber).

Wer hat Nutzen aus den Google Maßnahmen?

Die Nutznießer dieser Abstrafwelle werden Webseiten sein, die „ordentliches“ SEO betreiben. Es wird dabei spannend anzusehen sein, wie sich die Maßnahmen auf konkurrierende Webseiten auswirken. Wenn Googles Maßnahmen aufgehen, dann müssen diese eine bessere Position erzielen. Bislang waren Websites, die konkret auf Manipulation verzichten und gute Inhalte liefern, gegenüber Black Hat SEO benachteiligt.

Wenn es Google gelingt, diese Maßnahmen auch auf andere Sprachen umzusetzen und weiterhin ein deutliches Zeichen gegen PBNs setzt, gewinnen die Webseiten, die von SEOs optimiert werden, die auf starke Inhalte setzen – aber auch jeder Nutzer der Google-Suchmaschine, der bessere Inhalte geliefert bekommt. Bleibt die Hoffnung, dass Google bei diesem Experiment keine Kollateralschäden unterlaufen und man bald von zahlreichen zu Unrecht abgestraften Netzwerken lesen muss.

 

2016: Das Ende von Black Hat?

Mit Google Realtime Penguin (Google Penguin 4.0) hat Google das Ende von Black-Hat-SEO eingeläutet – so dachte man zunächst. Tatsächlich gibt es Anfang 2017 noch immer viele Branchen und Bereiche, die sehr wohl mit Black Hat Techniken funktionieren.

Im Gegenteil: Penguin 4.0 bietet sogar die Möglichkeit, gezielt negative SEO-Attacken auf Domains, bestimmte Seiten oder Verzeichnisse zu starten. Diese werden – danke Penguin 4.0 Algorithmus – auch gar nicht mehr so schnell erkannt.

Penguin 4.0 läutet somit die dringende Notwendigkeit für Link Risk Management ein.

 

Weitere Informationen:

Ranking Faktor Backlinks

Realtime Penguin 4.0 – Das aus für Black Hat oder gehts jetzt erst richtig los?

 

Google Penguin Realtime with real wine

Google Penguin 4.0 – Chancen und Möglichkeiten


Google Penguin 4.0 – Google Realtime Penguin ist live!

Google Penguin Realtime with real wineGoogle aktualisiert den Penguin-Algorithmus. Dieser wird ab sofort in Echtzeit in den Kern des Suchalgorithmus eingebaut. Das bedeutet zwar nicht, dass der Effekt sofort in der nächsten Sekunde sichtbar wird. Aber mit jedem Crawl, z.B. schon am nächsten Tag. (Quelle: https://webmasters.googleblog.com/)

Fast zwei Jahre warteten Webmaster auf dieses Update, um betroffene Webseiten ganz zu rehabilitieren. Es wurde auf Ende 2015 angekündigt, verschoben auf 2016. Jetzt ist es da: PENGUIN 4.0. Gleichzeitig ist das auch das letzte Penguin-Update. Denn der Pinguin ist nun fester Bestandteil des Kerns des Google-Algorithmus.

Bei der Einführung im Jahr 2012 wurde noch ein periodisches Update betrieben. Wurde eine Webseite als Spam markiert, so dauerte es bis zum nächsten Update, bis eine bereinigte Internetpräsenz sich wieder erholen konnte. Das konnte dauern. Zum letzten Update waren es zwei Jahre (Oktober 2014 – September 2016).

Google Abstrafungen in Echtzeit

Mit dem Echtzeit-Filter bewertet nun Google die Seiten bei jedem Besuch durch den Googlebot und die Aufnahme bzw. Prüfung in den Googleindex. Alle Seiten werden also permanent vom Filter beurteilt und in diesem Rahmen abgestraft oder rehabilitiert. Kurz nachdem die Seite neu durchsucht wurde, ist das Ergebnis sofort sichtbar.

Das besondere nun: Der Penguin wird nicht mehr nur die ganze Seite markieren, sondern wirkt seitenspezifisch. Das bedeutet, wer schlechte Links auf eine starke Unterseite des Konkurrenten setzt, kann die Positionierung in den Suchergebnissen dieses Teilbereichs eines Internetauftritts sehr schnell abstürzen lassen. Aber auch umgekehrt: Wer sein Linkprofil im Auge hat, kann sich schnell erholen. Und mit dem Link Detox Boost von Cemper kann die Erholungsphase wesentlich beschleunigt werden.

Erschwerend für das Link Risk Management kommt noch hinzu, dass neben den Seiten auch Domains, Ordner, Keywords … betroffen im Algorithmus geprüft werden.

Spätestens jetzt wird klar: Die Wichtigkeit, das eigene Linkprofil im Blick zu haben, war noch nie so lebenswichtig wie jetzt. Christoph Cemper, CEO von LinkReasearchTools empfiehlt mindestens eine wöchentliche Prüfung, „in der Zukunft womöglich öfter.“ (Quelle: Newsletter LRT)

 

 

Auswirkungen von Google Penguin Realtime:

  • Betroffene Seiten werden abgestraft und fallen im Ranking ab, nicht mehr zwingend die gesamte Domain
  • Betroffene Seitenbereiche können komplett abfallen, wenn der Google Filter hier schlechte Links sieht. Das bedeutet, dass unter Umständen ein gesamter Leistungsbereich eines Unternehmens aus den Suchergebnissen verschwinden kann, während andere Bereiche nach wie vor sichtbar und auffindbar bleiben.
  • Penguin hat nun Auswirkungen auf alle Ebenen wie Domänen, Ordner, Unterordner, Seiten und auch Keywords und Keyword-Gruppen. Vermutlich werden exzessive Keywords herausgefunden und eine Seite so isoliert werden – oder eine komplette Domain ist einfach nicht mehr auffindbar für bestimmte – wichtige – Keywordgruppen
  • Es wird schwieriger werden, kleine Penguin-Abstrafungen zu identifizieren

 

Bewertung von LinksFolge daraus: Gerade dann, wenn gut funktionierende Teilbereiche einer Website optimiert wurden, ist es wichtig für die unterschiedlichen Teilaspekte eines Internetauftritts regelmäßig einen  Competetive Link Detox durchzuführen. Das bedeutet, man setzt das eigene toxische Risiko ins Verhältnis zu den Mitbewerbern. Für jede Keyword-Gruppe, für jeden Teilaspekt einer Leistung.

Wer z.B. Webhosting anbietet, aber auch Webdesign, der muss seinen Internetauftritt und die Teikaspekte ins Verhältnis setzen zu den Mitbewerbern für das Thema Webhosting und genauso für das Thema Webdesign.

Ebenso muss ein Detox auf jeden Unterordner erfolgen, was die meisten Tool-Hersteller derzeit (noch) vor Probleme stellen wird. Und dann ab durch den Detox-Boost.

Das Google Penguin-Update wird jetzt ausgerollt. Derzeit crawlt Google das gesamte Internet und alle Seiten weltweit. In spätestens zwei Wochen werden alle Rankings „Google-Penguinifiziert“ sein. In dieser Zeit kann es zu starken Schwankungen in den Suchergebnissen kommen, die unbedingt analysiert werden müssen.

 

Mögliche Szenarien:

  • Backlinks, also Seiten, die auf Ihre Webseite verlinken, werden von Google abgestraft und Sie erfahren es nicht. Diese bislang guten Links gelten jetzt als schlechte Links und können Ihre Position in Google massiv bedrohen.
  • Ein Mitbewerber setzt auf wichtige Bereiche Ihrer Webseite schlechte Links. Ihre Webseite stürzt in den Suchergebnissen ab oder entwickelt sich trotz Optimierung nicht nach vorne – Ihnen fällt das nicht auf, denn von den Links wissen Sie nichts. Die schlechten Links sorgen dafür, dass ein wichtiger Ordner Ihres Angebots nicht mehr in Google gefunden wird.
  • Ein Mitbewerber überoptimiert Ihre wichtigen Dienstleistungen. Er setzt allso massiv viele Links zu einer Keywordgruppe, die für Sie wichtig ist. Ihre Seiten stürzen ab, trotz OnPage-Optimierung.  Da nicht die ganze Domain vom Google Penguin bestraft ist, sondern nur einzelne Keywords, bemerken Sie es nicht.

Das neue Google Update öffnet nicht nur ein neues Kapitel im CyberCrime, es birgt auch die Möglichkeit, gegen Abstrafungen sehr schnell vorzugehen. Denn wer sein Link-Profil im Blick hat, der kann schnell reagieren.

 

Was ist Link Risk Management?

LinkRiskMangement ist die Durchführung proaktiver Link Audits und Disavows, also der Abwertung schlechter Links. Eine Link Audit sollte künftig wesentlich häufiger erfolgen. Die Empfehlung lautet wöchentlich.

Zum LinkRiskManagement gehört dabei

  • die Beobachtung der eingehenden Links,
  • die regelmäßige Bewertung dieser Links,
  • das Eliminieren toxischer Links
  • und die schnelle Rettung der Website – also Ihres Geschäfts – im Desasterfall.

 

Grundsätzliches zu Links:

  • Ein Link kann helfen oder schaden – vor der Einführung des Penguinalgorithmus war es gut, viele Links zu besitzen. Je mehr, desto besser. Negative Effekte von Links gab es nicht.
  • Links sind neben Content das wichtigste Signal für eine Positionierung in Google.
  • Das Linkprofil muss zur Branche passen.

 

Besonderheiten bei der Analyse des Backlinkprofils:

Es muss immer das ganzes Backlink Profil analysiert werden – wichtig sind die Verhältnisse. Es wäre nicht ausreichend, such auf den Informationen azs der Google Search Console auszuruhen. Diese zeigen nur einen Bruchteil der Links an. Wir prüfen derzeit neben den Search Console Informationen im Rahmen eines Audits 24 weitere Quellen.

 

Historische Penguin-Updates

Das sind die bisherigen Penguin-Updates und deren Auswirkungen

Penguin 1.0 am 24. April 2012 (Auswirkungen auf ~ 3,1% der Anfragen)
Penguin 1.1 am 26. Mai 2012 (Auswirkungen auf weniger als 0,1% der Anfragen)
Penguin 1.2 auf 5. Oktober 2012 (Auswirkungen auf ~ 0,3% der Anfragen)
Penguin 2.0 am 22. Mai 2013 (Auswirkungen auf 2,3% der Anfragen)
Penguin 2.1 auf 4. Oktober 2013 (Auswirkungen auf rund 1% der Anfragen)
Penguin 3.0 am Oktober 17, 2014 (Auswirkungen auf rund 1% der Anfragen)
Penguin 4.0 + Echtzeit am 23. September 2016

SEYBOLD ist zertifizierter Partner der LinkResearchTools

(Bildquelle: LinkResearchTools)

 

 

Inhalte richtig von Google erfassen lassen: So crawlt Google nachladende Inhalte

Interessante Info am Rande von der Google Dance Tokyo:

Dort bestätigen Gray Illyes und andere Googler, dass Google statischen HTML Inhalt nicht vor Ajax Content bevorzugt.

Google nimmt mit seinen Crawlern alles in den Index möglichst so, wie es der Besucher in seinem Browser sieht. Es ist also egal, ob die Seite durch Javascript/Ajax aufgebaut wird oder aus statischen Inhalten besteht.

Wichtig ist in so einem Fall, dass Javascript nicht durch robots.txt geblockt wird. Bei sehr langen Seiten, die erst durch scrollen aufgebaut werden, hat Google seine Schwierigkeiten, denn der Googlebot scrollt nicht.

Wichtig also auch für die Gestaltung neuer Internetseiten ist, die Seiten immer mit der Google Search Console zu prüfen und abzusichern, dass auch wirklich alle gewünschten Inhalte von Google erfasst werden können.

Quelle: SEM Post… Does Google Value AJAX Content Less Than Static HTML Content? http://www.thesempost.com/google-value-ajax-content-static-html/

Google Richtlinien Update

5. April 2016:

Google hat seine Qualitätsrichtlinien aktualisiert…

Es gibt einige interessante Veränderungen.

Zentrale Themen der Änderungen bei den Qualitätsrichtlinien

  • Am auffälligsten ist, dass zusätzliche Inhalte auf einer Website etwas schwächer akzentiert werden (wo es doch bisher so gehypt wurde).
  • Lokal wird wichtiger – Google nennt das „Visit in Person“
  • Stärker betont wird nun auch E-A-T (Kompetenz, Maßgeblichkeit, Vertrauenswürdigkeit).
    Die Qualität wird also _noch_ wichtiger als bisher.
  • Mobile ist immer noch ziemlich wichtig, vor allem durch die stark gestiegenen Suchanfragen von mobilen Geräten.

Updated Google Quality Rater Guidelines: No More Supplementary Content, Emphasis on E-A-T https://goo.gl/1CDdao