Wie anfällig sind die Webseiten des deutschen Mittelstandes?

Vielen Dank für Ihr Interesse an unseren Publikationen.

Über 3.800 Internetseiten des deutschen Mittelstandes haben wir analysiert hinsichtlich:

  • Ist die Website ladbar für alle möglichen Produkte? Gibt es Einschränkungen durch Robots.txt? Wie viel gibt die Website von sich preis und reicht das aus, um ganz gezielt Angriffe vorbereiten zu können?
  • Verwendet die Website sinnvolle Beschreibung des Inhalts bzw. ist das Meta-Description-Tag überhaupt verwendet/vorhanden?
  • Existiert eine Verbindung zu Google+ (Authorship)?
  • Ist die Seite verifiziert (Domainverifizierung, Google, Microsoft, Yandex, Alexa)?
  • Versucht die Website doppelten Content zu umgehen (z.B. durch 301-Weiterleitungen oder Canonical Tags)?
  • Ist die Website auf ein responsive Verhalten ausgelegt und dadurch für mobile Endgeräte besser lesbar?
  • Mit welchem Produkt/welchen Produkten wurde die Website hergestellt und sind diese auf dem aktuellen Stand?

Das Passwort für den Download erhalten Sie über das unten stehende Formular.

Fordern Sie die kostenlose Special-Edition des eBooks "Sichtbarkeitsmanagement statt Suchmaschinenoptimierung" jetzt an!

Auszug aus der Studie:

Studie: Wie aktuell und fehleranfällig sind die Internetpräsenzen des Mittelstandes?

Einleitung

Herkömmliche SEO-Studien überprüfen die Webseiten hinsichtlich ihres Sichtbarkeitsindexes (Anzahl fest definierter Keywords, zu denen ein Unternehmen unter den Top 100 Positionen in Google platziert ist) oder aber hinsichtlich der OnPage-Maßnahmen, also ob das Unternehmen seine Hausaufgaben in Punkto Hauptüberschriften, Unterüberschriften, Suchwortdichte/WDF*IDF, Meta- und Image-ALT-Tags und so weiter.

Keine der Studien beginnt einen Schritt früher, nämlich beim eingesetzten Rüstzeug.

Wie aktuell und fehleranfällig sind die Internetpräsenzen des Mittelstands? – Basis Setting

Um diese Frage zu beantworten, haben wir im September und Oktober 2014 über 3.800 Unternehmenswebsites untersucht. Dabei handelt es sich um Unternehmen aus dem Mittelstand, vornehmlich angesiedelt im industriellen Umfeld.

Analysierte Unternehmen

Die Unternehmen kommen aus den folgenden Branchen:

  • Industrie (Automobilzulieferer, Maschinenbau, Ingenieurwesen, Verpackung, Automation etc.)
  • Banken (Volksbanken und Sparkassen)
  • Versicherungen
  • Rechtsanwälte, Steuerberater und Unternehmensberater
  • Mode (sowohl lokale Modeversender als auch in Städten angesiedelte größere Modegeschäfte)
  • Energiewirtschaft (Anbieter von Heizöl, Brennstoffen etc.)
  • Sicherheitsdienstleister
  • Großhandel (z.B. Obst, Gemüse, Florisitk)
  • Hausbau/Einrichtung (vom Rolladen über Armaturen bis zu Möbeln)
  • Hobby (Fahrrad, Outdoor-Veranstalter, Events…)
  • Medizin (z.B. Implantologen)
Auswahl der Unternehmen

Zur Auswahl kamen Unternehmen die primär im Einzugsgebiet Baden-Württemberg liegen. Gerade im Großraum Stuttgart liegt der traditionelle Mittelstand der Industrie. Also orientierten wir uns in der Studie an mittelständischen Unternehmen aus Baden-Württemberg, angereichert um einige Unternehmen aus dem restlichen Deutschland.

Die Unternehmen müssen als kleine Mittelstandsunternehmen schon seit einigen Jahren bestehen und in Ihrem Umfeld zu den bekannten und innovativen Unternehmen gehören.

Lokale Unternehmen und Dienstleister der Region haben wir ebenfalls ausgewählt.

Wichtig dabei war, namhafte Unternehmen zu betrachten, die auch über den Bundesland-Grenzen hinaus bekannt sind.

Was wurde analysiert

Analysiert wurden die Websites der Unternehmen hinsichtlich folgender Kriterien:

  • Ist die Website ladbar für alle möglichen Produkte? Gibt es Einschränkungen durch Robots.txt? Wie viel gibt die Website von sich preis und reicht das aus, um ganz gezielt Angriffe vorbereiten zu können?
  • Verwendet die Website sinnvolle Beschreibung des Inhalts bzw. ist das Meta-Description-Tag überhaupt verwendet/vorhanden?
  • Existiert eine Verbindung zu Google+ (Authorship)?
  • Ist die Seite verifiziert (Domainverifizierung, Google, Microsoft, Yandex, Alexa)?
  • Versucht die Website doppelten Content zu umgehen (z.B. durch 301-Weiterleitungen oder Canonical Tags)?
  • Verwendetes Characterset der Website (nicht definiert, UTF8, ISO 8859-1 etc.)?
  • Ist die Website auf ein responsive Verhalten ausgelegt und dadurch für mobile Endgeräte besser lesbar?
  • Mit welchem Produkt/welchen Produkten wurde die Website hergestellt und sind diese auf dem aktuellen Stand?
Ziel der Analyse

Die Analyse hatte zum Ziel,

  • Unternehmen zu identifizieren, die einer Optimierleistung einen hohen Stellenwert einräumen, weil sie sowohl technisch als auch mit den Grundeinstellungen für eine optimierte Auffindbarkeit in den Suchmaschinen vorbereitet ist. Diese Unternehmen haben bereits an dieser Stelle die wichtigen Grundlagen verstanden.
  • Unternehmen zu identifizieren, die schlampig mit der Pflege ihrer Website umgehen und dadurch zielgerichteten Attacken nichts (oder wenig) entgegen zu setzen haben. Diese Unternehmen verwenden in der Regel veraltete Content Management Systeme, die längst aus der Produktpflege sind bzw. von denen eklatante Sicherheitslücken bekannt sind.
  • Anzahl der heute mobil nutzbaren Inhalte von mittelständischen Unternehmen zu identifizieren, da gerade eine mobile Nutzung bei mittelständischen Unternehmen (vor allem Industrie) nicht im Mittelpunkt des Interesses steht, obwohl die Nutzung und Informationsbeschaffung via mobilem Endgerät zunimmt.