Schlechte Links: Maleware-Attacke

Abstrafung durch Google ruiniert das Unternehmen (Google Strafe, Penalty)

Fallstudie:

Wie Google durch eine Abstrafung beinahe ein Unternehmen ruinierte

Für viele kleinste, kleine und viele mittelständischen Unternehmen ist Sichtbarkeit wichtig. Zumindest, wenn man sie danach fragt. Gleichzeitig ärgert die Unternehmer aber, aufgrund der Wichtigkeit von Google und anderen Kanälen praktisch gezwungen zu sein, Geld auszugeben.

Noch schlimmer: Die Wertigkeit der Ausgaben wird nicht erkannt. Die Ausgaben zeigen sich zwar in erzielten Klicks, Personen auf der Webseite - in manchen Unternehmen ist möglicherweise sogar das Reporting soweit, dass die Besucher auch bestimmten Handlungen zugeordnet werden können. Allerdings lässt sich selten exakt einschätzen, wie viel die Werbeausgaben jetzt gebracht haben oder wohin Mehrausgaben führen. Zumal: Bei 1.600 Updates im Google-Algorithmus pro Jahr ist einfach schwierig zu sehen, wohin SEO führt.

Kurzum: Eigentlich interessieren sich die Unternehmen für SEO und Link Building oder gar Link Risk Management gar nicht.

Kein Interesse an SEO und Link Management

"Ich habe eine gute Seite und Google muss dafür sorgen, dass man uns auch auffindet. Wir sind nämlich wichtig für die Kunden."

"Wir haben keine Links gesetzt? Es ist doch die Aufgabe von Google, die schlechten Links zu erkennen und diese ungültig zu machen."

 

Die Crux des kleinen Gewerbes

Kleine Unternehmen mit "einer Hand voll Mitarbeiter" sind schwer von der Wichtigkeit von SEO oder Link Risk Management zu überzeugen. Gleichwohl ist ihnen bewusst, wie wichtig eine Sichtbarkeit in den Suchergebnissen ist.

In der Regel übernimmt der Geschäftsführer die Verantwortung für die Website, nicht selten wird diese aber von extern betreut (zudem in sehr vielen Fällen nicht einmal semi-professionell). Investitionen in AdWords, in der Regel Zielort + 15 km Radius werden mit kleinstem Budget realisiert. Facebook als Social Media-Applikation wird entweder über einen persönlichen Account oder sogar schon über eine Fan-Page betrieben. Link-Aufbau gibt es nicht oder wird durch gekaufte Links betrieben.

Die Gestaltung der Webseiten ist seltenst von einem Grafik Designer, der die Gestaltung extra studiert hat. Die Webseiten sind zusammengeschustert von aus dem Boden sprießenden Miniunternehmen und jeder der schon mal einen Baukasten betrieben hat oder WordPress schreiben kann, macht sich als Internet Marketing Unternehmen selbständig. Hauptsache billig. Hauptsache vorhanden.

Wenn ein Content Management System (CMS) verwendet wird, dann ist es in den häufigsten Fällen veraltet.

Fazit: Kleine Unternehmen bieten bei hohem Wettbewerb eine enorme Angriffsfläche sowohl für Negative-SEO, als auch für Hackerangriffe auf mangelhaft gewarteten Webseiten. Gleichzeitig sind dort die Budgets sehr gering und die Notwendigkeit für sauberes SEO erst dann erkennbar, wenn die Sichtbarkeit nicht (oder kaum) mehr vorhanden ist.

Wenn bei einem solchen Unternehmen der Supergau eintritt, dann wird es richtig schwierig.

Wo sind meine Kunden? Nach Google-Abstrafung ist der Laden leer.

 

Wo sind die Kunden?

Wie wichtig das wird, zeigt folgendes Beispiel: Ein Copyshop in Stuttgart hat eine Hand voll Stammkundschaft und jede Menge Kundschaft, die genau dann kommt, wenn sie den Copyshop braucht: Zum Druck und Binden der Diplomarbeit, für Geburtstagskarten, für Fotokopien und so weiter. Was macht der Kunde? Er sucht z.B. in Google nach einem Copyshop. Wichtig ist es also, in Google Maps und in der lokalen Such von Google gefunden zu werden, wenn eingegeben wird: „Copyshop Stuttgart“, „Fotokopien“ und verschiedene andere, sehr lokale Anfragen in Google.de und auch Google.de (Stuttgart).

Wenn man weitestgehend ohne AdWords auskommen möchte (weil das ja Geld kostet), dann sind Top Positionen unabdingbar.
Das Unternehmen profitiert von den guten Ergebnissen und einer ordentlichen Lage in der Stuttgarter Kernstadt.

Plötzlich stellt die Inhaberin fest, dass die Suchergebnisse von Google direkt aus den Suchergebnisseiten ein Gewinnspiel öffnen und auf eine Webseite in der Ukraine verweisen. Die Besucher aus Google kommen nicht mehr auf die Webseiten des Copyshops. Zudem gibt es Hinweise auf Trojaner.

Die Auswirkungen auf das kleine Unternehmen sind dramatisch: Kein Telefon klingelt und im besten Fall findet noch ein Stammkunde in den Laden.

 

Vorhandene Informationen nicht ausreichend für Lösung

Detaillierte Listen oder Information über Zugriffsmöglichkeiten auf Website, Hosting mittels FTP, Datenbank und anderes ist nur rudimentär vorhanden. Die „Administration“ und "Programmierung" hat ein Student oder „befreundeter Sohn“ früher übernommen. Dieser ist jetzt aber nicht mehr verfügbar. Eine Dokumentation der wichtigsten Zugriffsdaten und Passwörter oder der Systemumgebungen? Fehlanzeige. Wie kämpft man sich in einer solchen Situation zur Lösung?

 

Zugriff auf Website

Zunächst versucht man Zugriff auf die Website (in diesem Fall WordPress) zu erhalten. Das ist nicht möglich, weil sowohl Gestaltung als auch das Hosting beim "Student" liegen, der nicht greifbar ist. Lediglich ein Zugriff auf die Domain ist möglich, so dass wenigstens die Domain umgeleitet werden kann.

 

Backup vorheriger Versionen

Ohne Zugriff auf den Webspace ist es unmöglich, eine ältere, nicht angegriffene Version des Webspaces zu aktivieren.

 

Zugriff auf WordPress

Ein vorhandener Benutzer konnte lediglich als Redakteur innerhalb von WordPress verwendet werden. Dieser ermöglicht leider keine Tätigkeiten als Administrator (z.B. zum Sichern der Seite oder zur Ergänzung von Sicherheitsrelevanten Plugins, die dabei helfen können, die geänderten Inhalte zu identifizieren). Aufgrund fehlender Zugriffe auf die Datenbank konnten wir auch keinen Administrator-Benutzer direkt in die Datenbank integrieren, um so die WordPress-Installation zu übernehmen.

 

 

Kontrolle über Website zurück erlangen

Die Inhaberin entschied sich aufgrund der vorgenannten Umstände dafür, eine neue Internetpräsenz auf einer neuen Domain zu erstellen. Diese sollte - zumindest temporär - schnell wieder ermöglichen, dass Besucher Inhalte vorfinden, die nicht auf die ukrainische Gewinnspielseite verweisen.

Die Webinhalte wurden anschließend von uns grundoptimiert für ein mögliches Ranking in Google. Gleichzeitig erfolgte eine Anbindung der üblichen Überwachungstools Google Analytics und Google Search Console für die neue Website.

Durch die Weiterleitung der alten Seite war zumindest das ursprüngliche Problem behoben, dass Besucher die Inhalte des Unternehmens nicht mehr anklicken konnten. Welches Ausmaß der Schaden für Domain, Backlinks etc. erreicht hat und wie dieser zu beseitigen ist, zeigte sich im Anschluss.

 

Ausmaß des Schadens überprüfen

Eine Überprüfung der Sichtbarkeit brachte die vollständige Unsichtbarkeit der alten Domain.

Sichtbarkeit der Domain abfallend

Da für die alte Domain keinerlei Zugriffe auf Google Search Console Daten vorhanden war, konnten die Besuche nicht genauer qualifiziert werden. Es musste ein neues Property erstellt werden, also die Möglichkeit, dass Google die Suchanfragen, Impressionen und Rankings erfassen und aufbereiten könnte.

Absturz in den Google Suchergebnissen

War am 25. März die durchschnittliche Position in den Suchergebnissen bei Google bei 2,4, so lag die Suchanfrage zum 6. April durch den Absturz bedingt auf durchschnittlich Position 39,8. Und auch die neue Domain konnte sich - vermutlich aufgrund schlechter Links - nicht in den Top 10 etablieren.

 

Überprüfung nach toxischen Links

Eine Überprüfung der Backlinks nach toxischen oder potenziell schädlichen Verlinkungen in Xovi erwies sich als nicht ausreichend.

Backlink-Prüfung in Xovi erwies sich als fehlerhaft und zu wenig ausreichend

Da wir als LinkResearchTools Certified Xpert natürlich nicht auf die Daten einer Quelle verlassen, überprüften wir die potenziell toxischen Inhalte mit LRT. Und siehe da:

Mitbewerbervergleich toxische Backlinks

Im Vergleich zu den Mitbewerbern um die vorderen Plätze in Google ist das Linkprofil überdurchschnittlich stark mit schlechten Verlinkungen behaftet.

Die Detailanalyse bestätigte, dass über das Gewinnspiel (möglicherweise auch Negativ-SEO) angereicherte Backlinks durchgängig Viagra-, TlD-CC- oder sonstiger Spam waren.

In diesem Zuge wurden jetzt alle (!!) Backlinks manuell gesichtet, um einzuschätzen, ob diese abgewertet werden müssen. Das ist die umfangreichste Aufgabe im Link Audit. Gleichzeitig ist hier Erfahrung und Einschätzung hinsichtlich der Bewertung gefragt, weil zu diesem Zeitpunkt gleich das komplette Linkprofil bereinigt werden kann (und sollte).

Viele Backlinks, die Xovi nicht erkannte, zeigten sich als Malware.

Schlechte Links: Maleware-Attacke

 

Sichtbarkeit zurück nach 3 Tagen.

Im Anschluß erstellten wir ein Disavow-File, das in der Google Search Console platziert wurde. 48 Stunden später wurde der Google-Bot dazu animiert, die Backlinks neu zu crawlen, damit die Sichtbarkeit innerhalb weniger Tage wieder gegeben ist.

180 Top 10 Platzierungen in einer Woche

Das Ergebnis zeigte sofort eine Verbesserung in der durchschnittlichen Positionierung um mehr als 10 Positionen und fast 180 Top 10 Links innerhalb der ersten Woche. Nach der Säuberung ist der durchschnittliche toxische Wert auf ein unterdurchschnittliches Niveau gesunken, das noch unter den Mitbewerbern liegt.

Knapp 180 Top 10 Positionen innerhalb einer Woche

 

Doch der beste Effekt daran war die Rückmeldung des Kunden, dass durch die Sichtbarkeit in Google die Laufkundschaft wieder in das Ladengeschäft fand.

 

Gewonnen Erkenntnisse zur Bestandssicherung

Damit die bestehende Arbeit qualitativ weiterentwickelt werden kann, sind jetzt die folgenden Maßnahmen notwendig.

  1. Link Risk Management + Link Alerts
    Zukünftig sollen die bestehenden Backlinks regelmäßig analyisiert werden, so dass schon frühzeitig auf Veränderungen reagiert werden kann.
  2. Link Building
    Aufbau von Backlinks: Verlinkungen der Mitbewerber, die noch nicht auf die Unternehmenswebseite zeigen, werden identifiziert. Die Links mit dem besten Link Velocity Trend (Trend an Linkzuwachs) sollen als Verlinkung auf die Unternehmensseite gewonnen werden. Indirekte Linkmaßnahmen sorgen dafür, von den Mitbewerbern Backlinks zu erhalten.
  3. LocalSEO für Reichweite
    Einträge in Google Maps haben dafür gesorgt, dass wenigstens etwas Besucher kamen. Jetzt wird in lokale Verzeichnisse investiert, um die Reichweite zu erhöhen.
  4. Regelmäßige Pflege
    Regelmäßig sollen Backups und Überarbeitungen der Seite erfolgen.

Die Wichtigkeit des digitalen Auftritts nicht unterschätzen - Schutz ist notwendig

Fazit: Erkennbar wird die Wichtigkeit einer Internetpräsenz in der heutigen Zeit sogar für kleine Unternehmen. Während sich "Kleinstunternehmen" bislang sehr wenig Gedanken um ihre Sichtbarkeit gemacht haben, weil schlichtweg die Budgets dafür nicht kalkuliert wurden, so macht dieses Beispiel klar: Budgets für SEO und Link Risk Management sind existenziell (!!)

Insgesamt muss dem digitalen Auftritt eine hohe Wertigkeit und Aufmerksamkeit entgegengebracht werden. Ein Verlust der Sichtbarkeit führt in kürzester Zeit zu bedrohlichen Einbrüchen, die eine Existenz an den Rande des machbaren bringen und den Ruin begünstigen.

 

Die Ausführliche Case-Study ist erschienen bei Link Research Tools.

 

Weiterführende Links:

Top Platzierung in Google

Platz 1 in Google mit SEYBOLD

Platz 1 in Google: 80% der Suchenden klicken auf die Top Positionen, auf den ersten Platz in den Google Suchergebnissen und die auf Seite 1 befindlichen Suchergebnisse. So sagen zumindest einige Studien. Wenige suchen noch auf Seite 2 und 3, wenn die zuerst dargestellten Ergebnisse nicht zufriedenstellend sind.

Ungefähr die Hälfte aller Klicks wird über die Top-Positionen (Platz 1 bis Platz 3) generiert. Die passende Strategie, die Sichtbarkeit in den Suchmaschinen zu erhöhen, gilt nicht nur für Google. Ein Kanal übergreifendes Konzept wird notwendig, dass die wichtigsten Bereiche berücksichtigt. Ich beschäftige mich seit 1998 mit Internet Marketing und genau diesen Themen. Dabei ist zu berücksichtigen, dass gerade kleine und mittelständige Unternehmen mit begrenztem Budget hier deutlich benachteiligt sind. Viele hundert Kunden konnte ich seit 1998 bereits beraten und ein gemeinsames Konzept umsetzen. Über 1500 aktive Newsletter-Abonnenten, über 800 Twitter-Follower für die regelmäßige Ausgabe von SICHTBAR SEYBOLD, Platz 1 Management eBook Oktober 2014 bei Amazon und zahlreiche Nutzer für die Sichtbarkeits-App folgen meinen Tipps für Mittelstand und Kleinunternehmen auf Twitter, Facebook, Pinterest und hier im Blog.

 

Platz 1 die richtige Strategie?

Versprechen und Garantie für Platz 1 und andere Urban Legends

Platz 1 in Google ausreichend?

Grundlagen für eine Top Position

Die drei wichtigsten Ranking-Faktoren

Weiterführende Informationen und Zusatzinfos

Suchmaschinenoptimierung – Regeln ab 2017

SEO – Kosten und wie man ein Marketing-Budget kalkuliert – Hier finden Sie kostenlose Ressourcen

Ist Platz 1 in Google die richtige Strategie?

Früher war es die Aufgabe der Webmaster, eine Internetpräsenz auf Platz 1 in Google zu bekommen. Mittlerweile variiert dieses Ziel – vor allem, weil eine leichte Zielerreichung so nicht mehr möglich ist. Durch die fortgeschrittene Instrumentalisierung der Suchmaschine durch Alphabet, sind auch für schlechter platzierte Ergebnisse gute Klicks möglich, die zu einer Konvertierung führen. Durch Methoden wie Microdaten (Schema.org, Google Data Highlighter) können zusätzliche Ergebnisse auf der Suchseite auftauchen. Gerade bei Suchergebnissen schlägt vermehrt der Knowledge-Graph zu, der einen Nutzer schon so weit mit Informationen versorgt, dass dieser die Suchergebnisseite gar nicht mehr verlassen muss bzw. Platz 1 gar nicht mehr besucht werden muss.

Platz 1: google-knowledge-graph

Der Google Knowledge-Graph ermöglicht es einem schnell suchenden sofort Informationen zu liefern. Für SEO und SEA bedeutet dies ein Rückgang des Traffics, weil die Suchmaschine Google nicht verlassen werden muss.

Selbiges gilt auch für die Suche nach Sportergebnisse, Hotels, Flügen, Wetter und so weiter. Die vermehrte Verwendung von Microdaten führt dazu, dass eine Optimierung für Informationsseiten immer schwieriger ist, sofern man nicht der Markeninhaber ist.

Lokale Ergebnisse, wie Einzelhändler können durch eine optimierte LocalSEO-Strategie sehr gut davon profitieren, weil bei der Suche in Google nicht nur das Keyword, sondern auch der Ort, von dem aus gesurft wird, mit einbezogen wird. Unabhängig vom Wunsch des Nutzers kann anhand der IP-Adresse der ungefähre Standort festgelegt werden und dann wird das passende Suchergebnis präsentiert.

Wesentlich interessanter wird für den Besucher vermehrt nicht nur der Traffic, also wer auf die Seite kommt, sondern auch wie dieser dort zu einem Kunden werden kann, deshalb rückt die Platz 1 in Google-Strategie zugunsten des Sichtbarkeitsmanagements in den Hintergrund.

Die Rolle des Sichtbarkeitsmanagements

Sichtbarkeit bedeutet, dass die Angebote und Leistungen eines Unternehmens über die wichtigsten Kanäle präsent sind und wahrgenommen werden. Das gilt für die Werbung auf dem Fahrzeug, wie für den Unternehmensprospekt, die Webseite, die Google-Anzeigen, Facebook-Anzeigen bis hin zur Kommunikation mit dem Kunden via Newsletter, Twitter und anderen Kanälen. Dies zu bündeln ist eine wesentlich komplexere Aufgabe und heute um ein vielfaches wichtiger, als eine Position 1 in den Google Suchergebnissen, also Platz 1.Platz 1 in Google

Wandel der Bedürfnisse

Wiederkehrende Kunden, Bindung durch gute Leistung und die Visualisierung von potenziellen Kunden ist das Zauberwort der aktuellen Zeit. Damit wandelt sich das Bedürfnis, Platz 1 in Google zu erreichen, zugunsten einer Top-Platzierung und eines optimierten, ganzheitlichen Marketingkonzepts.

Trotzdem gelten entsprechende Regeln, die weiter unten beschrieben sind.

Zunächst ein Ausflug in die Scheinwelt obskurer Angebote:

Versprechen und Garantie für Platz 1

und andere Urban Legends

Im Internet und im Mail-Postfach finden sich täglich Angebote, die Platz 1 in Google versprechen und garantieren. Die günstigste Variante, die mir begegnete, war eine Top-Platzierung für einmalig 49,00 Euro. Solche Angebote sind Bauernfängerei oder Black-Hat-Seo, das eine dauerhafte Aussperrung aus den Suchergebnislisten nach sich zieht (ziehen kann).

Die jährlichen Kosten für SEO-Maßnahmen sind mindestens vierstellig. Wer mit Billigangeboten lockt, kann keine seriöse Arbeit liefern. Die Aufgaben, die sich an die Optimierung richten, werden jährlich schwieriger. Und Googles Richtlinien und Algorithmus-Updates tun ihr übriges.

Sind das seriöse Angebote für Suchmaschinenoptimierung? Platz 1 in Google oder Geld zurück

Sind diese Angebote für SEO seriös?

Beworbene Strategien sind meistens Konzepte aus „längst vergangener Zeit“. Durch täglich mehrere Updates des Suchmaschinenalgorithmus und sich ändernde Wertigkeiten in den Optimierungs-Maßnahmen, sind solche Angebote oft überholt. Trotzdem finden sich sich diese nach wie vor und die Tatsache, dass ein Unternehmen AdWords-Geld in die Hand nimmt, um für ein Suchwort gefunden zu werden, das bis zu 10 Euro pro Klick kostet (manche auch mehr), spricht schon im eigentlichen Verständnis dafür, dass die Maßnahmen nicht sonderlich wirtschaftlich angelegt sein können.

Aber auch seriöse Unternehmen, wie im obigen Bild aufgeführt, sind nicht dafür gefeit, durch möglicherweise fragwürdige Angebote, die im hauseigenen Forum propagiert werden, ins Zwielicht zu geraten. Es zeigt sich, wie leicht der eigene Name durch die Verwendung von vermeintlich unkontrollierten Foren, missbraucht werden kann. Ob eine solche Werbung dem Dienstleister dienlich ist? Ich glaube kaum.

Aber darin zeigt sich, wie wichtig es ist, im eigenen Angebot Gefahrenherde wie Kommentarspam, Forenbeiträge etc. zu unterbinden, die eine rekursive Wirkung für das eigene Image darstellen können.

Reicht Platz 1 in Google aus?

Viele Unternehmen streben eine Top Position gerade in Google an und lassen andere Suchmaschinen und Verzeichnisse außer Acht. Dass dies problematisch sein kann, sieht man mit jedem Update, das Google durchführt. Wenn die Positionierung der Unternehmenswebsite abfällt, dann steigen die Ausgaben für AdWords.

Ist die totale Abhängigkeit von Google aber überhaupt sinnvoll?

Google ist die dominierende Suchmaschine in Deutschland und auf der Welt (mit wenigen Ausnahmen). Während Yandex in Russland von hoher Bedeutung ist, kommt mit der Verbreitung von Windows Phone und Windows 10 vermehrt auch BING (Because Its Not Google) zurück ins Spiel. Wer jetzt denkt, dass diese Suchmaschinen keine große Bedeutung haben, der irrt gewaltig.

Mobile Suchanfragen machen bei Google bereits über 50% der Suchanfragen aus. Und die mobilen Apps von Amazon, Microsoft und Apple werden immer besser. Je genauer die Spracherkennung weiß, was gesucht wird, desto eher können die Anbieter der Spracherkennung auch auf eigene Suchergebnisse verweisen. Wer heute nach „Mercedes“ sucht, der wird von Siri schon zu Mercedes gelenkt, ohne dass es Google dazu benötigt. Platz 1 erfolgt sozusagen nicht in Google, sondern in dem konkurrierenden Suchsystem bzw. der Spracherkennung.

Die Uhr tickt für Google. Das bedeutet aber auch, dass eine reine Optimierung für Platz 1 in Google zwar noch immer wichtig ist, aber es darüber hinaus wesentlich wichtiger wird, den Inhalt so abzubilden, dass auch andere Suchroutinen diese ordentlich finden. Und vor allem bedeutet das, über die verschiedenen Kanäle wahrgenommen zu werden: Es benötigt Sichtbarkeitsmanagement. Sichtbarkeitsmanagement sorgt für den individuellen Platz 1 der Angebote. Damit wird der Platz 1 in Google nicht mehr der wichtigste, sondern es entsteht eine eigene Wertigkeit, die bestimmt wird, durch die verschiedenen Marketingkanäle, in denen der Kunde sich tatsächlich bewegt.

Trotz allem Wandel gelten noch immer die nachstehenden

Grundlagen für eine Top Position

 

Platz 1 zu erreichen braucht nicht nur Links und relevante Texte. Auch die Informationsgestaltung auf der Seite muss ordentlich durchgeführt sein.

Wer seine OnPage Faktoren prüfen möchte, der kann bei OnPage.org jederzeit für 99,90 Euro im Monat ein hervorragendes Tool zur Optimierung der eigenen Webseiten kaufen/mieten. Einen Platz 1 garantiert das leider nicht, aber die Möglichkeit, die eigene Website inhaltlich und auf die Keywords entsprechend zu optimieren, dass eine gute Position erreicht werden kann. Eine andere Alternative wäre, das Unternehmen seines Vertrauens mit einer Analyse, Auswertung und Optimierungsvorschlägen zu betrauen.

Was SEO-Tools leider nicht tun, ist eine vernünftige Entscheidung zu empfehlen. Dazu gehört nach wie vor Erfahrung und Know How.

Zu den On-Page-Faktoren, die auch heute noch wichtig sind, gehören:

ALT-Attribute (bei Bildern <img src=”…” alt=“”Ein“ Bild” />

ALT steht nicht für ein Alter, sondern für einen alternativen Text. Diese HTML-Tags kommen bei jedem Bild vor, das Sie auf einer Website verwenden. Im ALT-Tag wird das Bild beschrieben bzw. ein wichtiges Schlüsselwort mitgegeben. Zur SEO-Optimierung ein wichtiger Punkt.

Für Suchmaschinen wichtig sind Alternativtexte der Grafiken. Alle Suchmaschinen geben diesen Informationen eine hohe Relevanz, wenn es darum geht, die Webseite zu indizieren. IMG ALT-Tags sollten analysiert und entsprechend präpariert werden, um so eine höhere Relevanz zu erreichen.

ANCHOR-TAGS

Anchor-Tags werden von vielen Experten ignoriert oder falsch verstanden. Innerhalb der Natural-SEO-Strategie sollten die Anchor-Tags analysiert und optimiert werden. Eine so auf die Inhalte optimierte Website erhält eine höhere Relevanz. Ein SEO-REPORT/SEO-Audit beinhaltet in der Regel auch einen Bericht über die Anchor-Tags.

 

 

Texte schreiben für die Website

Wenn Sie sich mit jemandem unterhalten, sind Sie bemüht, dass Sie der Gegenüber versteht. Sie erhalten ein direktes Feedback auf Ihre Aussagen und registrieren mit allen Sinnen, ob Sie so verstanden werden, wie Sie das gerne hätten. Feedback ist in jeder Beziehung das wichtigste Kontrollinstrument. Im Web fehlt das direkte Feedback. Daher ist hier besondesr wichtig so normal wie möglich zu schreiben.

Niemand mag ein geschwollenes Gerede. Und vergessen Sie auch, dass Google im Text natürlich unbedingt eine hohe Dichte Ihrer Suchworte haben möchte. Bedenken Sie: Eine zu große Suchwortdichte schadet eher.

Vermeiden Sie, allzu häufige Wortwiederholungen – die Leute, die Suchmaschinenalgorithmen programmieren sind auch nicht auf den Kopf gefallen. Schreiben Sie ganz normal, wie Ihnen der Schnabel gewachsen ist – und vor allem verständlich.

 

Relevanz oder Content to Code Ratio (C2C)

Das Verhältnis zwischen Inhalt und Code bekommt eine zunehmend wichtigere Stellung im Algorythmus von Google. Häufig übersehen, ist das Verhältnis zwischen Code und Inhalt ein wichtiger Teil der SEO-Strategie und sorgt für ein hohes Maß an Relevanz. Jede einzelne Website sollte analysiert werden und dann für ein ausgeglichenes Verhältnis zwischen Code und Inhalt gesorgt werden. Beachten Sie dabei unbedingt, nicht zu viele Reizworte zu nutzen, da dies in Suchmaschinen zur Abwertung führt. Denken Sie viel mehr daran, Formatierung für Überschriften und andere, der bisherigen Text- und Formatierungstipps zu nutzen

Die Wertigkeit von externen Links

Bislang haben wir die Wertigkeit von externen Links nicht beachtet. Relevante und möglichst viele externe Links sind aber die beste aller Möglichkeiten, den Rang innerhalb Google, Yandex und Bing zu verbessern. SEO-Spezialisten haben ausgeklügelte Link-Building-Strategien ausgearbeitet, die externe Links von relevanten Seiten und Linkaustausch mit den wichtigsten Katalogen umfassen. In einfacher Weise kann man selbst für externe Links sorgen – gegebenenfalls kann sogar ein Linkaustausch mit einem Marktbegleiter sinnvoll sein (wenn das gewünscht und möglich ist).

Eine Optimierung des Rankings und damit Verbunden eine Top Position in Google zu erreichen, ist ein Ziel, das letztlich nicht um externe Links herum kommt. Dabei ist vor allem wichtig, Links von Webseiten mit einem hohen Pagerank zu erhalten, deren Inhalte eine Relevanz zu den eigenen Inhalten darstellen.

Dies ist sehr schwierig und erfordert entsprechende Recherchen, die aber über Suchmaschinen wie Google machbar sind.

Des weiteren kann es sinnvoll sein, Sekundärinformationen auf Zweit- und Dritt-Webseiten aufzubereiten. Wenn diese nicht gleichlautend sind, wie die eigenen Inhalte, kann dies mit der Zeit eine entsprechende Wirkung erzielen.

 

META TAG „Description“ & META TAG „Keywords“

Viele behaupten, das Meta-Tag “Description”, also die Beschreibung einer Webseite, wird von den Suchmaschinen nicht herangezogen, wenn es um Suchergebnisse geht. Falsch. Suchmaschinen wie Google, Ask, MSN etc. ziehen alle sowohl die Hinweise auf den Inhalt zur internen Berechnung des Rangs des Suchergebnisses heran. Folglich sollte dieser Bereich nicht allzu sträflich vernachlässigt werden. Sie sollten also großen Wert auf eine gute Beschreibung (auf die Wiederholung der wichtigsten Schlagworte achten!) legen.

Im Gegensatz dazu werde ich Sie jetzt schockieren: Ehrlich gesagt sind Ihre Keywords für Google gar nicht so interessant, wie gedacht. Die Suchmaschinenbetreiber interessieren sich nicht für die Schlüsselworte, die Sie Ihrer Website zugedenken. Aber: Es interessiert sie, ob eine Relevanz dieser Schlüsselworte zum Inhalt vorhanden ist. Folglich ist für Platz 1 auch die Vergabe von Schlüsselworten wichtig, die eine Relevanz zum textlichen Inhalt besitzen.

Vermeiden Sie in den Suchworten pauschal alle Worte zu verwenden, unter denen Sie aufgefunden werden wollen. Konzentrieren Sie sich auf die wichtigsten (inkl. Wort-Vredreher und Falshschreibungen). Optimieren Sie den Inhalt so, dass die wichtigsten Worte im beschreibenden Text (Ihrem Content) vorkommen. Wichtig wurden in 2015 vor allem die Proof Terms, also Keywords, die unmissverständlich belegen, dass es auf der Seite auch um das angegebene Thema geht.

 

SUCHWORT-OPTIMIERUNG (KEYWORD)

Wir analysieren Suchworte (Keywords) basierend auf die Anforderungen unseres Klienten und den derzeitigen Markttrends. Durch die Kombination verschiedenster SEO-Tools erarbeiten wir geeignete Suchworte und Suchwortkombinationen, um die effektivsten Suchworte für jedes Projekt zu finden.

2015 sind die Suchmaschinen so gut geworden, dass es für Platz 1 nicht mehr notwendig wird, „Verschreiber“ als Keywords einzuplanen. Wesentlich wichtiger hingegen ist, wie eine Person sucht. Für Platz 1 in Google gibt es für einen Sportwagen-Vermieter mit „Ferrari selber fahren“ (grammatikalisch falsch) wesentlich mehr Suchvolumen, als für das korrekte „Ferrari selbst fahren“. Solche Themen berücksichtigen wir, um Sie für Ihr Sichtbarkeitsmanagement auf Platz 1 zu positionieren.

TITLE UND META-TAG OPTIMIERUNGEN

Die Optimierung nach dem Seitentitel und den Inhaltsangaben ist eine wichtige Aufgabe, da Suchmaschinen diesen Informationen nach wie vor eine hohe Relevanz geben. Wir analysieren und optimieren die Seitentitel jeder einzelen Webseite und nicht nur die der Startseite. Dabei legen wir wert darauf, dass Seitentitel und Inhalt zusammenpasst, um eine höhere Relevanz zu erzeugen. Darüber hinaus optimieren wir weitere Metatags, wie z.B. Keywords und Description – damit Sie bei Google, Yandex, Bing und anderen optimal gefunden werden können.

IMG ALT OPTIMIERUNG

Für Suchmaschinen wichtig sind Alternativtexte der Grafiken. Alle Suchmaschinen geben diesen Informationen eine hohe Relevanz, wenn es darum geht, die Webseite zu indizieren. Wir analysieren und präparieren IMG ALT-Tags für jedes grafische Element auf Ihrer Website, um durch höhere Relevanz zu besseren Suchergebnissen zu kommen.

RELEVANZ ODER CONTENT TO CODE RATIO (C2C)

Das Verhältnis zwischen Inhalt und Code bekommt eine zunehmend wichtigere Stellung im Algorythmus von Google. Häufig übersehen, ist das Verhältnis zwischen Code und Inhalt ein wichtiger Teil der SEO-Strategie und sorgt für ein hohes Maß an Relevanz. Wir analysieren jede einzelne Webseite und sorgen für ein ausgeglichenes Verhältnis zwischen Code und Inhalt. Dabei beachten wir, nicht zu viele Reizworte zu nutzen, da diese in Suchmaschinen zur Abwertung der Webseite führen.

LINKS

Relevante und möglichst viele externe Links sind die beste aller Möglichkeiten, den Rang innerhalb Google, Yandex und BING zu verbessern – bis auf Platz 1. Unsere Link-Building-Strategie umfasst externe Links von relevanten Seiten und Links auf dazu passenden Portalen, Blogs etc.

SUCHMASCHINENANMELDUNG

Eine manuelle Suchmaschinenanmeldung in den wichtigsten Suchmaschinen und Katalogen, wie z.B. Google, MSN, Yahoo, Lycos, AOL, Excite und anderen qualitativ hochwertigen Suchmaschinen, sorgt für mehr Besucher auf Ihren Webseiten. Die automatische Anmeldung von Submission-Software wird von vielen Suchmaschinen zwischenzeitlich als SPAM gewertet, daher legen wir wert darauf, Ihre Website manuell anzumelden. Das ermöglicht uns, die Richtlinien jeder einzelnen Suchmaschine zu beachten – damit Sie zukünftig besser gefunden werden. Gleiches gilt vor allem für unsere LocalSEO Maßnahmen, die Ihnen zu Platz 1 in den Suchergebnissen von anderen Verzeichnissen verhelfen.

Platz 1 in Local SEO Apps und Verzeichnissen

KATALOG-EINTRÄGE

Wir tragen Ihre Website in freien Katalogen, wie zum Beispiel DMOZ ein. Durch jahrelange Erfahrung haben wir eine Liste von Katalogen zusammengetragen, die hochwirksam für Suchmaschinenmarketing Verwendung finden. Dabei beachten wir je nach Projekt auch die passenden Kataloge, so dass Business-Websiten nicht in Unterhaltungskatalogen landen.

ARTIKEL, PR, NEWS UND BLOGGING

Wir haben die Erfahrung, Suchmaschinen relevante Artikel für Ihre PR zu erstellen. Sei es ein Artikel für eine Webseite, ein Blogartikel, PR für eine der zahlreichen PR-Suchmaschinen oder einem Artikel für eine Lexikonwebsite – wir sorgen dafür, dass dieser Artikel veröffentlicht wird. Dabei achten wir sorgsam darauf, nicht gegen Googles doppelte Inhalts-Abwertung (Google-Duplicate-Content-Issue) zu verstoßen.

 

 

Wichtige Faktoren für eine gute Position in Google 2015

Searchmetrics hat die wichtigsten Faktoren 2015Faktoren und die Veränderung zum Vorjahr in einer sehr schönen und überschaulichen Infografik aufgebaut.

So sind die weiteren, wichtigsten Erfolgsfaktoren:

– Relevante Keywords zum Thema
– Anzahl verwendeter Worte
– Proof Terms
– Click-Rate
– Mobiles Design
– Zeit der Besucher auf der Seite
– Sichtbarkeit der Domain

Platz 1 in Google - das sind die Rankingfaktoren 2015

Quelle: Searchmetrics, direkt verlinkt.

 

Die drei wichtigsten Rankingfaktoren

Update (März 2016): In einem Hangout (Google Q&A vom 23.03.2016) sagt Andrey Lipattsev, Google Engineer, dass die drei wichtigsten Faktoren für das Google Ranking die folgenden Punkte sind:

  1. Links
  2. Content
  3. Rankbrain

 

Damit wird der oft in Frage gestellte Wert von Links (innerhalb, nach extern und von extern) bestätigt als wichtigster Faktor neben dem Content. Mit Content ist gemeint, dass sowohl die inhaltliche Struktur des Contents (H1, H2, Fett, Texte…) stimmen müssen, als auch der Inhalt mit Relevanz zum Thema passen soll.

Rankbrain, eigentlich ein Filter, ist als dritter Rankingfaktor wichtig, weil Google täglich sehr viele Suchanfragen hat, die in exakt dieser Form noch nie gestellt wurden. Das bedeutet, dass Texte, Bildbeschreibungen und ähnliches sehr gut mit dem Keyword und den damit korrespondierenden Keywords (Recherche!!!) passen muss.

Ein Beispiel für Rankbrain: Gibt man in Google als Suche ein „langhaariger Grüner“, dann gibt das Ergebnis Bilder und den Wikipedia-Eintrag von Anton Hofreiter, Bündnis 90/Die Grünen, aus – und das, obwohl nirgends im Text die Kombination „langhaarig“ und „Grün“ vorkommt.

Langhaariger Grüner - Anton Hofreiter

Suchmaschinenoptimierung – Diese Regeln gelten ab 2017

 

Seit 2017 sollte nicht mehr in Rankings für ein einzelnes Keyword analysiert werden. Es gilt eine Website für ein bestimmtes Keyword zu optimieren, aber für ein Keyword-Themengebiet zu analysieren. Ideal geht das mit der Google Search Console, in der alle Suchanfragen überprüft werden können.

Um auf Seite 1 zu gelangen, gilt seit 2017 das folgende Prinzip:

  • Gute und saubere Links bringen eine Website auf die Seite 1 von Google
  • OnPage-Optimierte Inhalte und das User-Verhalten sind ausschlaggebend dafür, wo sich das Webangebot unter den Top 10 eingliedern wird.
  • Steigerung des Nutzerverhaltens wird wichtiger Rankingfaktor.

SEO-Kosten und Marketing-Budget

 

Die Kosten für SEO in das bestehende Marketing-Budget zu integrieren ist sehr schwierig. Fast nie lassen sich die Kosten für die Optimierung in exakte Zahlen fassen. Unabhängig davon kann Google mit seinen permanenten Algorithmus-Updates einen gehörigen Strich durch die Rechnung machen. Endlich ist die Website mühevoll unter den Top Ten angekommen, dann ändern ein paar Parameter bei Google schnell das Ranking und die Arbeit geht weiter. SEO ist also nicht eine abgeschlossene Dienstleistung sondern vielmehr ein fortlaufender Prozess. Deshalb ist es notwendig, sich dafür ein Budget einzuplanen.

Die Kosten für SEO sind abhängig von

  • Branche, Thema und Nische des Unternehmens
  • Status der Website (lässt sich am besten mit einer Sichtbarkeitsanalyse ermitteln)
  • Wie gut ist das Linkprofil (gute Links vs. schlechte Links; Link Risk Management)

Um die Budgets entsprechend einplanen zu können, haben wir folgende Kostenübersichten und Kalkulatoren zusammengestellt:

 

 

Weiterführende Informationen für Platz 1 und Optimierung

http://searchengineland.com/google-won-pr-battle-seo-thats-good-thing-232761
http://searchengineland.com/half-of-google-search-is-mobile-232994
http://www.searchmetrics.com/de/knowledge-base/ranking-faktoren-infografik-2015/

 

Bestimmt interessiert Sie auch:

Klickwahrscheinlichkeiten in den Suchergebnissen

Welcher Platz zwischen 1 und 10 hat die besten Klickwahrscheinlichkeiten und welche Position ist eher schlecht?

Lesen Sie hier

 

Was darf SEO kosten?

Was kostet die Optimierung für Suchmaschinen? Mit welchen Kosten muss man kalkulieren?

Lesen Sie hier

 

Wie optimiert man die Sichtbarkeit einer Webseite für mehr Klicks?

Wie findet man die richtige Seite für eine Optimierung, um eine Keyword-Kanibalisierung zu vermeiden?

Lesen Sie hier

safety

Google: Von der Suchmaschine zur Antwortmaschine

Google ist keine Suchmaschine, sondern eine Antwortmaschine

Eigentlich war Google schon seit dem Release 1998 als Antwortmaschine konzipiert. „Informationen der Welt zu organisieren und allgemein zugänglich und nützlich zu machen.“, lautete das erklärte Ziel.

Die Tendenz zur Antwortmaschine war von Anfang an vorhanden und spätestens seit der Übernahme von DeepMind klar erkennbar. Dies wurde als starke Abweichung zu den rein technischen Rankingfaktoren zuvor empfunden.

Mit den eingeschränkten Möglichkeiten der Jahrtausendwende wurden früher alle technischen Elemente eines Dokuments herangezogen, die potentiell eine Auskunft über die Wertigkeit des Seiteninhalts für den Benutzer geben konnten. Es ging darum, Informationen zu ordnen und somit schneller und einfacher auffindbar zu machen.

Googles Erfolg stammt größtenteils von den in den Suchergebnissen geschalteten Werbeanzeigen und konnte sich nur halten, weil die Bedürfnisse der Nutzer mit steigendem Niveau befriedigt werden. Selbstverständlich sind unter solchen Umständen Manipulationsversuche nicht erwünscht.

Ehemals war es möglich, dass eine Website in den Top-Platzierungen rankte, ohne dass sie etwas mit dem Suchwort zu schaffen hatte. Zum Beispiel durch Link-Netzwerke. Wer etwas Bestimmtes sucht und dann solche Websites ausgeliefert bekommt, der wird diese Suchmaschine nicht wieder benutzen. Ergo werden die Betreiber der Suchmaschine dieses Szenario verhindern wollen.

Deshalb ist die immer stärker werdende Tendenz zur Antwortmaschine als unabwendbar für den Erhalt von Googles Erfolg zu betrachten. Aber neu ist sie nicht.

Mit jedem Google-Update werden Möglichkeiten zur Manipulation der angezeigten Suchresultate reduziert. Informationen, die nach Meinung von Google für den Suchenden unnötig sind, werden ausgeschlossen.

safety

Wer hier noch SEO betreiben möchte, muss eher wie ein Mensch, als eine Suchmaschine denken.

Das belegt besonders die Antwort von Gary Illyes (Webspam Team Google) auf der PubCon in Las Vegas 2016 auf die Frage, welche die wichtigsten Punkte sind, die Webseitenbetreiber im Fokus für das Jahr 2017 haben sollten. Nämlich Machine Learning, AMP und strukturierte Daten.

Googles Machine Learning mit dem Ziel, Anfragen besser zu verstehen und vorauszuahnen

Mit der Technik des maschinellen Lernens ist es Googles KI, DeepMind, nun möglich, anhand von Beispielen selbstständig zu lernen, ganz wie ein menschliches neuronales Netz. Somit muss nicht mehr jedes Antwortszenario überprüft werden, sondern die schnellste Antwort wird durch den Abgleich mit bestehenden Daten ausgeliefert. Skynet? Nein, Google.

AMP – Mobile Seiten zuerst

AMP (Accelerated Mobile Pages), eine eingeschränktere HTML-Version für mobile Websites, ist durch den Mobile First Index ins nähere Visier gekommen. Der Mobile First Index sieht vor, dass mobile Versionen von Websites vor ihrem Desktop-Äquivalent indexiert werden. Diese Entscheidung beruht darauf, dass die mobile Suche seit Jahren über 50% aller Suchanfragen ausmacht und stetig steigt.

Mit AMP ist es möglich, Code standardisiert zu verschlanken und somit eine erheblich geringere Ladezeit zu erreichen. Da die Ausgabe der mobilen Website darüber hinaus als Cache-Version auf einen Google-Server erfolgt, sind Ladezeiten zwar einheitlich und äußerst userfreundlich, die Auswirkungen auf den Traffic des eigentlichen Website-Betreibers jedoch umstritten. Das Google AMP-Projektteam gelobt Besserung.

Strukturierte Daten – so holt sich Google die Informationen, die es braucht, ohne dass Google die dazugehörige Website benötigt

Mit Hilfe von strukturierten Daten, einem Auszeichnungsverfahren nach einem vorgegebenen Schema, ist es Google möglich, bestimmte Inhalte direkt auf der Ergebnisseite auszuliefern. So kann jemand, der lediglich nach einem Konzert sucht, diese Informationen bereits auf der Suchergebnisseite finden, auf das Ergebnis klicken und wird dann zu einem Ticketservice weitergeleitet (Wie auch immer die Entscheidungskriterien dafür sind…).

So können bereits Flüge, Hotels und verschiedenste Veranstaltungen direkt auf Google gesucht werden. Dafür bündelt Google Informationen aus strukturierten Daten in Portalmanier – schlecht für Portalanbieter, gut für Google.

Die Vorstufe dazu, die Gewichtung der Rich- und Featured Snippets, kann man schon heute beobachten.

Anfangs wurde vorselektierter Inhalt nur bei sehr einfachen Fragen ausgeliefert, wie zum Beispiel dem Wetter:

Wetterinformationen in Google

Gegenwärtig wird das Ergebnis auch nach Stadtteil-Ebene ausgeliefert

 

Für Wettervorhersagen, Rechnungen, Währungen und vieles mehr wurden eigene Inhaltsausgabe-Formate geschaffen, die direkt als Antwort eingeblendet werden.

Tschenrechnerfunktion in Googlewaehrung Und das war erst der Anfang:tanzen lernen

Ein Video-Thumbnail in voller Größe kann man natürlich auch hervorragend zu Werbezwecken nutzen:

Video Thumbnail in Google

Sehr deutlich sieht man den Hinweis auf die Tour. Wer die Musik gerne hört und davon überzeugt wurde, kann auch nach den Konzertkarten dazu googeln…

Konzerttermine in Google finden

… eine Location aussuchen, die man besuchen möchte…

Tickets für eine Veranstaltung buchen in Google

… und mit einem Klick auf die Quelle (unterer Rand) sofort Tickets bestellen.

Was noch fehlt? Jetzt noch schnell den passenden Flug…

Flug zum Konzert über Google buchen

… und das Hotel dazu buchen – für die After-Show-Party nach bester Rock’n’Roll-Manier. Und das alles von einer Ergebnisseite aus.

Hotelbuchung von der Google SERP-Seite aus

Das alles ist realisierbar, ohne dass die Suchergebnisseite wirklich ernsthaft verlassen werden muss – eben weil die Suchmaschine Google mehr und mehr eine Antwortmaschine wurde.

Google Künstliche Intelligenz – Wie Google lernt, vorauszusehen, was wir eigentlich wollen.

Mit der ständigen Ausweitung und Anpassung der KI wird Google immer besser darin, die Absicht hinter einer Suchanfrage zu verstehen.

Von Pizzeria..

Über Google ine Pizza in Stuttgart bestellen

…über Interpreten…

Wer schrieb die deutsche Nationalhymne

…bis zum Songtext

Songtexte finden auf Google

(den vollständigen Text gibt es dann bei Google Play Musik, wo man das Lied im übrigen auch gleich als MP3 kaufen kann)

und kompletter Discographie…

Lieder und Alben finden in Google

…Google liefert direkte Antworten auf die Fragen der Nutzer.

Man erhält auch interaktive und komplexe Antworten, wenn Inhalte von Google mit der Quelle vereinbar sind.

z.B. hier bei der Weltbank:

Informationen zu komplexen Fragen

Google gibt dabei die Quellen an, damit man zum Ursprung der Information findet. Die Antwortmaschine dient als intelligentes Wikipedia.Lexikoninformationen von Google

Auch Übersetzungen von Redewendungen in mehr als 26 Sprachen gelingen ganz ohne Klick:

Übersetzungen in Google

Und der letzte Schrei – Antworten im Audio-Format:

koller-koller - Antworten im Audioformat von Google

Google lernt Mensch zu sein

So witzig das hier scheint. Mit Produkten wie Amazon Echo, Cortana, Siri oder OK-Google werden wir künftig mehr und mehr Anfragen über unsere Stimme stellen. Die Produkte werden in unsere Wohnungen lauschen und versuchen die passenden Informationen parat zu haben.

Skynet - Ist unsere Zukunft mit Google wie Skynet in Terminator?

(Quelle: http://de.terminator.wikia.com/wiki/Skynet)

Erst vor wenigen Wochen veröffentlicht Wired einen Artikel darüber, dass Googles künstliche Intelligenz lernt, wie ein Mensch zu reden. Sprachassistenten wie der von Google oder Apples Siri könnten bald weniger wie Roboter und mehr wie tatsächliche Menschen klingen. DeepMind, die Künstliche-Intelligenz-Forschungsabteilung von Google, hat einen neuen Ansatz für die Sprachausgabe von Maschinen gefunden. WaveNet heißt das Modell, für das rohe Audiosignale herangezogen werden.

Das System erstellt 16.000 Samples pro Sekunde, wobei die Maschine mit jedem produzierten Signal dazulernt. Die Aufnahmen menschlicher Stimmen werden genutzt und dann bildet die Maschine diese Stimmen nach und kann damit ihre Prognose für die nächste Sprachausgabe verbessern.

Damit weiß Google bald schon, was wir als nächstes sagen werden und kann dann Antworten parat halten:

Viele dieser Direktantworten beantworten die Fragen des Nutzers so genau, dass keine weitere Suche mehr nötig ist. Nur wer wissen möchte, dass „naQ QamchoH ghaH tIr ngogh“ auf Klingonisch „Vollkornbrot“ bedeutet, muss sich an Bing (Bing = Because it’s not Google) wenden.

Martin Luther King in der Knowledge Box

In der sogenannten „Knowledge Box“ am Ende einer Suchergebnisseite (früher rechts am Seitenanfang) können Auszüge aus einem Wikipedia-Artikel stehen, angereichert um ähnliche Informationen aus dem Knowledge-Graph. Oder auch lokale Informationen zu Unternehmen und Einrichtungen aus Google My Business.

Die Oper in Google my Business

Auch die  Einführung des „Google Assistant“ neulich als Erweiterung für Google Allo beweist eine ausgeprägte Antwort-Affinität. Per Spracheingabe kann man so ziemlich jede Frage stellen und bekommt direkt eine präzise Antwort. Auf die Frage, ob ich heute Abend einen Regenschirm gebrauchen könnte, lieferte der Google Assistant das genaue Wetter für meinen derzeitigen Standort:

Google Allo antwortet ausführlich auf Fragen

 

Und wenn ich darum bitte, mein Tagesprogramm zu zeigen, liefert der Google Assistant meine Termine – auf Wunsch auch meine To-Do-Liste:

Google nennt mir meine Termine und To Dos

Seit neuestem auch auf deutsch.

Offensichtlich verfügt der Google Assistant auch über eine Prise (programmierten) Humor:

Google Assistant

 

Schöne neue Welt

Von einer Welt, wie von George Orwell oder Aldous Huxley schon in den 1930er Jahren beschrieben, sind wir heute nicht weg. Skynet, eine intelligente und sich gegen den Menschen richtende Intelligenz, wie in der Terminator-Serie mit Arnold Schwarzenegger zelebriert, wird mehr und mehr eine ernste Zukunftsvision.

Google lernt, bedient unsere Häuser, weiß was wir suchen und kann vermehrt uns die Dinge anbieten, an die wir noch nicht denken. Manipulative Werbeaktionen, in denen wir Menschen zu Käufen getrieben werden, die wir gar nicht brauchen, hat man schon mit der Werbung der 1950er Jahren vorausgesagt. Haben wir Menschen uns einlullen lassen? Manche vielleicht. Werden wir es jetzt tun? Sind wir nicht schon mitten drin?

Die Maschine erleichtert uns das Leben. Wir müssen lernen, dass wir uns nicht bestimmen lassen – denn die Maschine schleicht sind an (und ein), uns mitzubestimmen. Und ganz langsam übernimmt sie das Vordenken.

Aldous Huxley beschrieb eine Gesellschaft in der Zukunft (2540 n.Chr.), in der „Stabilität, Frieden und Freiheit“ gewährleistet scheinen. Menschen werden klassifiziert und herangezüchtet. Alpha-Plus Menschen werden Führungskräfte, Epsilon-Minus die Arbeitsbiene. Der Mensch ist konditioniert auf eine permanente Befriedigung durch Konsum, Sex und eine Droge, die den Mitgliedern der Gesellschaft das Bedürfnis zum kritischen Denken und Hinterfragen der Weltordnung nimmt. Die Regierungen bilden Kontrolleure, die von der Bevölkerung wie Idole verehrt werden. Sind das unsere heutigen Youtube-Stars, denen ein jugendliches Volk bereits alles abkauft und die profitieren von den Werbeeinblendungen mittels Google AdWords auf die Videos?

 

Eine Website muss stetig ihre Qualität beweisen

Google fordert Content Marketing: Ranking und Content Marketing stehen in engem Zusammenhang.  Das bestätigte John Müller am 20.10. im Rahmen des Google Tuesday Hangouts.

Allerdings muss man,  wie immer bei Google, zwischen den Zeilen lesen.

Ich liebe es, wenn Johannes Müller spricht. Das sind immer so herrlich klare Aussagen, die da aus dem Google Webspamteam kommen… 🙂

„Also aus meiner Sicht haben wir nicht so etwas wie einen Website Authority Score (Anmerkung: Dieses Bewertungskriterium dient zur Klassifizierung, wie gut eine Website in den Suchergebnissen platziert ist). Aber wenn wir so etwas hätten oder wenn wir es haben – wenn wir z. B. Qualitätssignale betrachten, die über die gesamte Website gelten – dann ist das etwas, das über die gesamte Website in dem Zustand gilt, wie es jetzt ist. Es ist also nicht der Fall, dass wir sagen würden, oh, vor fünf Jahren hatten Sie diese Punkte für Ihre Website und deswegen wird das für immer so bewertet bleiben. Vielmehr betrachten wir Ihre Website jetzt insgesamt, und wir wenden die aktuelle Punktzahl auf alle Ihre Seiten auf der Website an. So gehen wir mit Website Signalen um.“

 

Übersetzt heißt das: Wir bewerten Websites nicht mit einer Gesamtbewertung, aber wenn wir es doch täten oder vielleicht sogar tun, dann kann man sich auf die historischen Errungenschaften nicht ausruhen.

 

Oder noch kürzer:
Eine Website muss leben und über die Zeit hinweg gute Inhalte liefern, sonst stürzt das Ranking ab.

Damit hat John Müller bestätigt, dass es wichtig ist, die Qualität einer Website zu erhalten oder zu steigern. Und dazu brauchen wir Content Marketing.

Was Google über Sie weiß: Prüfen Sie Ihren digiralen Fußabdruck

Google Dashboard: Der Gesamtüberblick über Ihr Google-Konto

Einen Einblick in alle Informationen, die Google über Sie gespeichert hat, finden Sie im Dashboard.

Google Dashboard - Das weiß Google über Sie

Google weiß dabei nicht nur, welche Konten und Webseiten mit Ihrem Profil verbunden sind, sondern auch, wie viele Musiktitel Sie in Play Musik gespeichert haben und welche Titel Sie wie oft anhören. Oder wie viele Apps aus dem Playstore installiert wurden und welche die neueste App ist. Wo Sie wann waren und wie lange.

 

Google Preferences:
In diese Kategorien steckt Google Ihr Profil

Das Grundprofil, das Google von Ihnen hat beinhaltet zahlreiche Informationen wie z.B. das Alter, Geschlecht und Ihre Interessen. Mit diesen gesammelten Daten werden für Sie relevante Anzeigen in den Suchergebnissen und Apps ausgespielt. Google Preferences finden Sie hier.

 

Google Search History:
ALLE Suchbegriffe, nach denen Sie je gesucht haben

Jede einzelne Suche, ob via Voice oder via Browser, speichert Google an. Dazu werden die Anzeigen addiert, auf die Sie geklickt haben. Die Google Search History finden Sie hier.

Google Activity:
ALLE Geräte, die Sie mit Google nutzen

Google kennt jedes Gerät und jede IP-Adresse, von der aus Sie angemeldet sind. Über diese Funktion findet man auch einfach Missbrauch, wenn plötzlich eine Nutzung aus dem Ausland auftaucht, daher ist es empfehlenswert sich diese Informationen anzuschauen.

 

Google Permissions:
Diesen Add-Ons haben Sie den Zugriff auf Ihr Konto erlaubt

Berechtigungen für Dritt-Produkte und Apps können hier eingesehen werden. Jede Berechtigung kann an dieser Stelle leicht widerrufen werden. Die Liste zeigt alle Erweiterungen, die einen Zugriff auf Ihre Daten haben.

 

Google Location History:
Alle Orte, die Sie bereist haben

Wer ein Android-Smartphone nutzt, übermittelt seine Standortdaten an Google. Google weiß so sehr genau, wo Sie sind, wie lange Sie sich dort aufhalten und kann entsprechende Rückschlüsse ziehen. Wer sich zwei Stunden in einem Restaurant aufhält, hat dort vermutlich gegessen. Diese Einstellung kann unterbunden werden.

Sämtliche Standorte können in der Google Location History eingesehen und exportiert werden.

 

Google Takeout:
Alle persönlichen Daten kopieren und sichern

Die große Datenkrake Google bietet die Möglichkeit, alle persönlichen Daten von den Google-Servern zu kopieren. Dazu gehören Emails, Bookmarks (Lesezeichen), Kontakte, You-Tube-Videos, Fotos, Kontakte und zahlreiche weitere Google lässt euch alle persönlichen Daten von den Servern kopieren: Lesezeichen, E-Mails, Kontakte, Profilinformationen, YouTube-Videos, Fotos, Fitnessdaten, Bücher, Musik und vieles mehr.

Die Daten können hier heruntergeladen werden.

 

Google Support:
Daten aus Google löschen lassen

Wer Daten in Google findet, die dort nicht sein sollen, kann deren Löschung beantragen. Vor allem bei rechtlichen Problemen und persönlichen Gründen ist dies sehr sinnvoll. Eine Löschung von Informationen können Sie hier beantragen.

Webseiten mit verdächtigen Inhalten, wie z.B. Malware können bei Google mit diesem Formular gemeldet werden.

Black Hat SEO vor dem Aus

Im September 2014 bereits berichteten Betreiber von privaten Blog-Netzwerken (PBN) darüber, dass Google damit begonnen hat, diese Netzwerke zu deindexieren.

Damit läutete Google konzentrierte Maßnahmen gegen Black Hat SEO ein. Laut Search Engine Roundtable sind bereits tausende PBNs abgestraft. Zahlreiche Betreiber solcher Sites berichten bereits über den Niedergang ihrer Netzwerke. Ist Black Hat SEO damit vor dem Aus?

Black Hat SEO – Was ist das?

Der Begriff Black Hat kommt aus der Hacker-Szene. Ein „Black Hat“ Hacker ist ein Hacker, der Techniken aus niedrigen Beweggründen nutzt, um Computer zu manipulieren, um damit an Daten zu kommen, die er verwenden kann (Quelle: Moore, Robert (2005). Cybercrime: Investigating High Technology Computer Crime. Matthew Bender & Company, Seite 258).

Black Hat SEO sind demzufolge alle Maßnahmen, die aus dem Grund durchgeführt werden, eine Website mit allen Mitteln kurzfristig auf Platz 1 für ein bestimmtes Keyword zu platzieren.

Was sind PBN?

PBN oder Private-Blog-Networks (private Blog Netzwerke) dienen genau einem solchen Black Hat Zweck. Ein Black Hat SEO kauft viele Domains mit unterschiedlichen Names und Orts-Angaben (sprich: Er verwendet zahlreiche unterschiedliche „Handles“, die nur den Zweck haben zu verschleiern, wer tatsächlich der Besitzer einer solchen Domain ist). Dies erfolgt, damit Google nicht nachvollziehen kann, wer hinter den Domains eigentlich steckt. Durch den Aufkauf abgelaufener Domains mit einem hohen Wert für SEO (gute Backlinks bzw. insgesamt gute Verlinkung und entsprechender Reputation) werden dann weitere Domains zugekauft und in das PBN integriert. Es werden Seiten angelegt, die so untereinander verlinken, dass eine bestimmte Seite gewinnbringend und kurzfristig im Ranking auf die Top-Position manövriert werden kann.

Bei diesen Domains wird ganz konkret das Impressum verschleiert, damit Google hier keinen Zusammenhang zwischen den Domains und der eigentlichen Zielseite erkennt. Zudem werden die Domains bei unterschiedlichen Hostern betrieben, um auch eine räumliche Trennung darzustellen.

Unlängst hat der Gewinner des „größten SEO Wettbewerbs“ von XOVI mit genau diesen Methoden den Wettbewerb und damit einen Smart gewonnen. Noch (25.09.2014) hält sich Rankboost ganz oben mit einem Angebot, das inhaltlich komplett deplatziert ist. Andere Teilnehmer, die über viele Wochen große Energie in inhaltlich hervorragende Seiten investiert haben, wurden mit einer solchen Maßnahme brüskiert.

Solche PBNs dienen also dazu, den Google Index zu spammen, mit informationen

Was unternimmt Google gegen Black Hat SEO?

Bislang war Google ziemlich machtlos gegen ein solches Vorgehen und solche Verschleierungsmethoden boten wenig Möglichkeiten, diese Seiten zu erkennen.

Wenn ein PBN ordentlich aufgestellt ist, dann wird das Impressum „vergessen“, denn wenn es als Bild dargestellt ist, kann es Google lesen. Also kann Google Seiten ohne Impressum identifizieren und ggf. abwerten. Ebenso Seiten mit einem Bild-Impressum.
Schwieriger wird es, wenn ein bewusst gefälschtes Impressum verwendet wird.

Über kurz oder lang muss sich die Black Hat SEO-Gemeinde neue und andere Methoden ausdenken. In jedem Fall müssen diese Methoden überdacht werden, denn Google schläft nicht.

Die Strategie von Google ist klar erkennbar:
Der Pinguin schaut nach Links aus Netzwerken.
Panda 4.0 bewertet Inhalte.
Payday Loan 2.0 rechnet mit besonders „spammigen“ Suchanfragen
Erst kürzlich gab es diese entsprechenden, umfangreichen Updates (Mai 2014).
Dann muss man die Korrekturen an Verlagsseiten (Reduzierung von Pagerank, um diese nicht (mehr) so wichtig darzustellen für Backlinks) als Maßnahme zur Vorbereitung für einen Schlag gegen die PBNs sehen.
(Übrigens: Wer den ganzen Zoo von Google kennenlernen will, also sehen möchte, welches Tier für welches Update steht, der findet hier einen ordentlichen Artikel darüber).

Wer hat Nutzen aus den Google Maßnahmen?

Die Nutznießer dieser Abstrafwelle werden Webseiten sein, die „ordentliches“ SEO betreiben. Es wird dabei spannend anzusehen sein, wie sich die Maßnahmen auf konkurrierende Webseiten auswirken. Wenn Googles Maßnahmen aufgehen, dann müssen diese eine bessere Position erzielen. Bislang waren Websites, die konkret auf Manipulation verzichten und gute Inhalte liefern, gegenüber Black Hat SEO benachteiligt.

Wenn es Google gelingt, diese Maßnahmen auch auf andere Sprachen umzusetzen und weiterhin ein deutliches Zeichen gegen PBNs setzt, gewinnen die Webseiten, die von SEOs optimiert werden, die auf starke Inhalte setzen – aber auch jeder Nutzer der Google-Suchmaschine, der bessere Inhalte geliefert bekommt. Bleibt die Hoffnung, dass Google bei diesem Experiment keine Kollateralschäden unterlaufen und man bald von zahlreichen zu Unrecht abgestraften Netzwerken lesen muss.

 

2016: Das Ende von Black Hat?

Mit Google Realtime Penguin (Google Penguin 4.0) hat Google das Ende von Black-Hat-SEO eingeläutet – so dachte man zunächst. Tatsächlich gibt es Anfang 2017 noch immer viele Branchen und Bereiche, die sehr wohl mit Black Hat Techniken funktionieren.

Im Gegenteil: Penguin 4.0 bietet sogar die Möglichkeit, gezielt negative SEO-Attacken auf Domains, bestimmte Seiten oder Verzeichnisse zu starten. Diese werden – danke Penguin 4.0 Algorithmus – auch gar nicht mehr so schnell erkannt.

Penguin 4.0 läutet somit die dringende Notwendigkeit für Link Risk Management ein.

 

Weitere Informationen:

Ranking Faktor Backlinks

Realtime Penguin 4.0 – Das aus für Black Hat oder gehts jetzt erst richtig los?

 

Google Penguin Realtime with real wine

Google Penguin 4.0 – Chancen und Möglichkeiten


Google Penguin 4.0 – Google Realtime Penguin ist live!

Google Penguin Realtime with real wineGoogle aktualisiert den Penguin-Algorithmus. Dieser wird ab sofort in Echtzeit in den Kern des Suchalgorithmus eingebaut. Das bedeutet zwar nicht, dass der Effekt sofort in der nächsten Sekunde sichtbar wird. Aber mit jedem Crawl, z.B. schon am nächsten Tag. (Quelle: https://webmasters.googleblog.com/)

Fast zwei Jahre warteten Webmaster auf dieses Update, um betroffene Webseiten ganz zu rehabilitieren. Es wurde auf Ende 2015 angekündigt, verschoben auf 2016. Jetzt ist es da: PENGUIN 4.0. Gleichzeitig ist das auch das letzte Penguin-Update. Denn der Pinguin ist nun fester Bestandteil des Kerns des Google-Algorithmus.

Bei der Einführung im Jahr 2012 wurde noch ein periodisches Update betrieben. Wurde eine Webseite als Spam markiert, so dauerte es bis zum nächsten Update, bis eine bereinigte Internetpräsenz sich wieder erholen konnte. Das konnte dauern. Zum letzten Update waren es zwei Jahre (Oktober 2014 – September 2016).

Google Abstrafungen in Echtzeit

Mit dem Echtzeit-Filter bewertet nun Google die Seiten bei jedem Besuch durch den Googlebot und die Aufnahme bzw. Prüfung in den Googleindex. Alle Seiten werden also permanent vom Filter beurteilt und in diesem Rahmen abgestraft oder rehabilitiert. Kurz nachdem die Seite neu durchsucht wurde, ist das Ergebnis sofort sichtbar.

Das besondere nun: Der Penguin wird nicht mehr nur die ganze Seite markieren, sondern wirkt seitenspezifisch. Das bedeutet, wer schlechte Links auf eine starke Unterseite des Konkurrenten setzt, kann die Positionierung in den Suchergebnissen dieses Teilbereichs eines Internetauftritts sehr schnell abstürzen lassen. Aber auch umgekehrt: Wer sein Linkprofil im Auge hat, kann sich schnell erholen. Und mit dem Link Detox Boost von Cemper kann die Erholungsphase wesentlich beschleunigt werden.

Erschwerend für das Link Risk Management kommt noch hinzu, dass neben den Seiten auch Domains, Ordner, Keywords … betroffen im Algorithmus geprüft werden.

Spätestens jetzt wird klar: Die Wichtigkeit, das eigene Linkprofil im Blick zu haben, war noch nie so lebenswichtig wie jetzt. Christoph Cemper, CEO von LinkReasearchTools empfiehlt mindestens eine wöchentliche Prüfung, „in der Zukunft womöglich öfter.“ (Quelle: Newsletter LRT)

 

 

Auswirkungen von Google Penguin Realtime:

  • Betroffene Seiten werden abgestraft und fallen im Ranking ab, nicht mehr zwingend die gesamte Domain
  • Betroffene Seitenbereiche können komplett abfallen, wenn der Google Filter hier schlechte Links sieht. Das bedeutet, dass unter Umständen ein gesamter Leistungsbereich eines Unternehmens aus den Suchergebnissen verschwinden kann, während andere Bereiche nach wie vor sichtbar und auffindbar bleiben.
  • Penguin hat nun Auswirkungen auf alle Ebenen wie Domänen, Ordner, Unterordner, Seiten und auch Keywords und Keyword-Gruppen. Vermutlich werden exzessive Keywords herausgefunden und eine Seite so isoliert werden – oder eine komplette Domain ist einfach nicht mehr auffindbar für bestimmte – wichtige – Keywordgruppen
  • Es wird schwieriger werden, kleine Penguin-Abstrafungen zu identifizieren

 

Bewertung von LinksFolge daraus: Gerade dann, wenn gut funktionierende Teilbereiche einer Website optimiert wurden, ist es wichtig für die unterschiedlichen Teilaspekte eines Internetauftritts regelmäßig einen  Competetive Link Detox durchzuführen. Das bedeutet, man setzt das eigene toxische Risiko ins Verhältnis zu den Mitbewerbern. Für jede Keyword-Gruppe, für jeden Teilaspekt einer Leistung.

Wer z.B. Webhosting anbietet, aber auch Webdesign, der muss seinen Internetauftritt und die Teikaspekte ins Verhältnis setzen zu den Mitbewerbern für das Thema Webhosting und genauso für das Thema Webdesign.

Ebenso muss ein Detox auf jeden Unterordner erfolgen, was die meisten Tool-Hersteller derzeit (noch) vor Probleme stellen wird. Und dann ab durch den Detox-Boost.

Das Google Penguin-Update wird jetzt ausgerollt. Derzeit crawlt Google das gesamte Internet und alle Seiten weltweit. In spätestens zwei Wochen werden alle Rankings „Google-Penguinifiziert“ sein. In dieser Zeit kann es zu starken Schwankungen in den Suchergebnissen kommen, die unbedingt analysiert werden müssen.

 

Mögliche Szenarien:

  • Backlinks, also Seiten, die auf Ihre Webseite verlinken, werden von Google abgestraft und Sie erfahren es nicht. Diese bislang guten Links gelten jetzt als schlechte Links und können Ihre Position in Google massiv bedrohen.
  • Ein Mitbewerber setzt auf wichtige Bereiche Ihrer Webseite schlechte Links. Ihre Webseite stürzt in den Suchergebnissen ab oder entwickelt sich trotz Optimierung nicht nach vorne – Ihnen fällt das nicht auf, denn von den Links wissen Sie nichts. Die schlechten Links sorgen dafür, dass ein wichtiger Ordner Ihres Angebots nicht mehr in Google gefunden wird.
  • Ein Mitbewerber überoptimiert Ihre wichtigen Dienstleistungen. Er setzt allso massiv viele Links zu einer Keywordgruppe, die für Sie wichtig ist. Ihre Seiten stürzen ab, trotz OnPage-Optimierung.  Da nicht die ganze Domain vom Google Penguin bestraft ist, sondern nur einzelne Keywords, bemerken Sie es nicht.

Das neue Google Update öffnet nicht nur ein neues Kapitel im CyberCrime, es birgt auch die Möglichkeit, gegen Abstrafungen sehr schnell vorzugehen. Denn wer sein Link-Profil im Blick hat, der kann schnell reagieren.

 

Was ist Link Risk Management?

LinkRiskMangement ist die Durchführung proaktiver Link Audits und Disavows, also der Abwertung schlechter Links. Eine Link Audit sollte künftig wesentlich häufiger erfolgen. Die Empfehlung lautet wöchentlich.

Zum LinkRiskManagement gehört dabei

  • die Beobachtung der eingehenden Links,
  • die regelmäßige Bewertung dieser Links,
  • das Eliminieren toxischer Links
  • und die schnelle Rettung der Website – also Ihres Geschäfts – im Desasterfall.

 

Grundsätzliches zu Links:

  • Ein Link kann helfen oder schaden – vor der Einführung des Penguinalgorithmus war es gut, viele Links zu besitzen. Je mehr, desto besser. Negative Effekte von Links gab es nicht.
  • Links sind neben Content das wichtigste Signal für eine Positionierung in Google.
  • Das Linkprofil muss zur Branche passen.

 

Besonderheiten bei der Analyse des Backlinkprofils:

Es muss immer das ganzes Backlink Profil analysiert werden – wichtig sind die Verhältnisse. Es wäre nicht ausreichend, such auf den Informationen azs der Google Search Console auszuruhen. Diese zeigen nur einen Bruchteil der Links an. Wir prüfen derzeit neben den Search Console Informationen im Rahmen eines Audits 24 weitere Quellen.

 

Historische Penguin-Updates

Das sind die bisherigen Penguin-Updates und deren Auswirkungen

Penguin 1.0 am 24. April 2012 (Auswirkungen auf ~ 3,1% der Anfragen)
Penguin 1.1 am 26. Mai 2012 (Auswirkungen auf weniger als 0,1% der Anfragen)
Penguin 1.2 auf 5. Oktober 2012 (Auswirkungen auf ~ 0,3% der Anfragen)
Penguin 2.0 am 22. Mai 2013 (Auswirkungen auf 2,3% der Anfragen)
Penguin 2.1 auf 4. Oktober 2013 (Auswirkungen auf rund 1% der Anfragen)
Penguin 3.0 am Oktober 17, 2014 (Auswirkungen auf rund 1% der Anfragen)
Penguin 4.0 + Echtzeit am 23. September 2016

SEYBOLD ist zertifizierter Partner der LinkResearchTools

(Bildquelle: LinkResearchTools)