Wie Sie 14 technische SEO Probleme finden und beheben, die Ihre Seite negativ beeinträchtigen

Home/Allgemein, SEO/Wie Sie 14 technische SEO Probleme finden und beheben, die Ihre Seite negativ beeinträchtigen
  • 14 Technische SEO Probleme

Wer liebt es nicht, kleine SEO Probleme zu bearbeiten, welche die Performance der eigenen Seite dramatisch verbessern können?

Projekte mit niedrigem Aufwand und großem Nutzen sollten unabhängig von der eigenen Branche stets an erster Stelle der Prioritätenliste stehen. Das wird nirgendwo so deutlich wie bei technischen SEO Problemen einer Webseite.

Konzentrieren wir uns also auf einfach zu benennende und einfach zu lösende Probleme. Viele dieser Probleme können innerhalb eines Nachmittages angegangen werden und es ist möglich, dass dabei der Traffic Stau für mehrerer Monate gelöst wird. Es sind vielleicht keine bahnbrechenden, komplexen Aspekte, welche sofort Ihr SEO ein für alle Mal perfekt machen, aber es sind Aspekte, die sich sofort überprüfen lassen. Wenn Ihre Seite bei den folgenden Themen bereits gut aufgestellt ist, können Sie die schwierigeren Themen immer noch angehen.

Wir definieren SEO dabei für diesen Beitrag als alle Aspekte einer Seite, die mehr technische Probleme beinhalten können und von üblichen Marketern vielleicht nicht auf Anhieb erkannt und behoben werden können. Technische SEO Probleme sind in den meisten Fällen auch solche Probleme, die sich über die ganze Seite erstrecken und nicht unbedingt spezifische Probleme einer einzelnen Unterseite. Diese Probleme zu beheben kann daher die Performance der gesamten Seite stärken.

Zielgruppe für diesen Beitrag sind Beginner und Fortgeschrittene im SEO Bereich, sowie Webseitenbetreiber, die sich seit längerem nicht mehr um die Pflege der technischen SEO Aspekte gekümmert haben. Die folgende Liste ist keine Übersicht aller möglichen SEO Probleme, sondern nur eine Zusammenfassung besonders häufiger Themen, die sich schnell lösen lassen.

1. Überprüfen Sie Ihre Indexierung

Es ist unmöglich für den eigenen Markennamen zu ranken, wenn die eigene Seite von Google gar nicht indexiert wird. Daher macht es Sinn, vor allen anderen Ansätzen die eigene Indexierung zu checken. Diese lässt sich mit Google selbst einfach und schnell überprüfen. Tippen Sie dazu Folgendes in das Suchfeld ein:

Site:[IhreURL.de]

Sie bekommen nun angezeigt, wie viele Ihrer Unterseiten tatsächlich bei Google ranken.

Nun sollten Sie sich fragen, ob diese Anzahl ungefähr der Anzahl entspricht, die Sie erwartet haben, ob Seiten fehlen, und ob vielleicht Seiten auftauchen, die Sie dort nicht haben wollen.

Im nächsten Schritt können Sie das Problem dann direkt angehen. Überprüfen Sie Produktseiten und Blog Posts, um genauer zu sehen, welche Seiten im Suchindex auftauchen und welche nicht. Schauen Sie auch noch einmal nach, ob bestimmte Subdomains im Index auftauchen. Ebenfalls sollten Sie prüfen, ob vielleicht versehentlich alte Versionen Ihrer Webseite indexiert werden anstatt der neuen Versionen. Schließlich sollten Sie auch nach Spam suchen für den Fall, dass Ihre Seite gehackt wurde.

Sobald Sie Klarheit darüber haben, welche Seiten im Index auftauchen und welche nicht können Sie sich gezielter darum kümmern, die Ursache der fehlenden oder falschen Indexierungen zu bestimmen und zu beheben.

2. Robots.txt

Eines der schadhaftesten Sonderzeichen im SEO ist ein falsch gesetztes ‚/‘ in der robots.txt Datei. Leider vergessen aber viele Menschen, diese Datei zu überprüfen. Insbesondere nachdem eine Webseite neu aufgesetzt wurde ist es wichtig, auch die robots.txt Datei zu ersetzen. Das kann in Extremfällen sogar dazu führen, dass ganze Seiten geblockt werden.

Gehen Sie also auf IhreURL.de/robots.txt und stellen Sie sicher, dass dort nicht die Zeilen “User-agent: * Disallow: /” auftauchen.

Sollten Sie diese Zeilen sehen, sprechen Sie unbedingt sofort mit Ihrem Webseitenbetreiber. Es könnte einen Grund dafür geben, warum die Datei so aufgesetzt wurde, es könnte aber auch ein bloßes Versehen sein. Falls Ihre robots.txt Datei sehr komplex ist, so wie es bei vielen Shops der Fall ist, sollten Sie die Datei mit Ihrem Webseitenbetreiber Zeile für Zeile durchgehen um sicherzustellen, dass die Datei korrekt ist.

3. Meta robots NOINDEX

Ein NOINDEX kann noch schädlicher für eine Seite sein, als eine falsch konfigurierte robots.txt Datei, da diese Einstellung alle Seiten, die sie aufweisen, aus dem Suchindex entfernt. NOINDEX wird häufig genutzt, wenn Seiten noch in der Entwicklung sind. Wird eine Seite in letzter Minute vor der Deadline online gestellt, kann das Entfernen der NOINDEX Einstellung schnell vergessen werden. Daher sollten Sie sich vergewissern, dass Ihre Seiten diese Einstellung nicht aufweisen.

Sie können dazu den Source Code Ihrer Seite manuell überprüfen oder ein Tool wie Screaming Frog benutzen, um alle Ihre Unterseiten auf einmal scannen zu lassen. Tauchen dabei NOINDEX Seiten auf, entfernen Sie diese Einstellung sofort. Falls Ihre Seite häufig bearbeitet wird, setzen Sie Erinnerungen für Ihr Team, die NOINDEX Einstellung zu entfernen oder Überprüfen Sie Ihre Seite regelmäßig.

4. Eine Version per URL

Für einen Besucher ist es egal, ob er Ihre Seite als www.beispiel.de sieht, als beispiel.de, oder in einer anderen URL. Für Suchmaschinen jedoch sind das unterschiedliche Seiten und es kann passieren, dass nur eine Version indexiert wird, andere jedoch nicht. So kann es zu einem Mischmasch unterschiedlicher URL Varianten kommen, was zu unnötiger Komplexität und Verwirrung führt. Daher sollten Sie dafür sorgen, dass alle Versionen indexiert und nur eine Version angezeigt wird.

Geben Sie dazu beispielsweise verschiedene Versionen Ihrer URL in den Browser ein und prüfen Sie, ob am Ende nur eine Version angezeigt wird. Achten Sie dabei auch auf den Unterschied zwischen http und https – idealerweise sollte es nur eins von beidem geben. Wenn Sie hier Unterschiede feststellen, setzen Sie 301 Weiterleitungen, um das Problem zu lösen. Schauen sie auch auf Google mit dem ‚site:‘ Befehl nach, welche Version Ihrer Seite tatsächlich indexiert wird.

Diese Vereinheitlichung Ihrer Webseite sollten Sie regelmäßig überprüfen und durchführen.

5. Rel=Canonical

Rel=Canonical ist ähnlich zu der oben beschriebenen Vereinheitlichung von URLs, hat aber doch ein paar kleine Unterschiede. Probleme treten hier häufig auf, wenn beispielsweise durch Kategoriesysteme in Shops mehrere verschiedene URLs und damit mehrere Seiten mit dem gleichen Content erstellen, wodurch es zu Duplicate Content kommt. Das passiert vor allem, wenn Produkte unterschiedlichen Kategorien in einem Shop angehören. Dann erstellen viele Shopsysteme für jede Kategorie eine eigene Seite für das Produkt.

Sie sollten daher bei wichtigen Unterseiten unbedingt prüfen, ob das Rel=Canonical Tag auftaucht. Scannen Sie auch Ihre Seite und schauen Sie, ob bestimmte Unterseiten doppelt unter verschiedenen URLs auftauchen. Ist dies der Fall, nutzen Sie dort das Rel=Canonical tag um Google mitzuteilen, dass es sich bei diesen Seiten um eine einzige Seite handelt, die unter verschiedenen URLs gelistet wird.

6. Text in Bildern

Text in Bildern darzustellen ist ein einfaches Konzept, aber viele Seiten verstecken damit wichtigen Content. Google kann Text in Bildern zwar grundsätzlich erkennen, ist darin aber längst nicht so gut wie man es im Jahr 2017 erwarten würde. Ein Google Crawler wird Content in Bildern sehr wahrscheinlich nicht erkennen. Google sollte, damit Ihre Seite eine gute Indexierung erreicht, zumindest eine H1 Überschrift und einen kleinen Textabsatz mit relevanten Keywords vorfinden.

Überprüfen Sie Ihre Seite manuell oder mithilfe eines Crawlers um festzustellen, ob Sie wichtigen Content in Bildern verstecken. Arbeiten Sie mit Ihren Content Managern und Webdesignern zusammen um das einheitliche Erscheinungsbild Ihrer Seite zu erhalten, ohne dass Content in Bildern versteckt werden muss.

7. Defekte Backlinks

Insbesondere wenn Webseiten umziehen oder neu strukturiert werden kann es schnell dazu kommen, dass Backlinks auf Seiten verweisen, welche so nicht mehr existieren. Wichtige Seiten Ihrer Homepage können so zu 404 Seiten werden, so dass die Rückverweise auf diese Seiten effektiv defekt sind.

Mithilfe verschiedener Tools können Sie überprüfen, ob und wo auf Ihrer Seite es zu 404 Fehlern kommt. Nachdem Sie diese Seiten gefunden haben, können Sie 301 Weiterleitungen einrichten, um die Backlinks zu den neuen Seiten zu führen. Schauen Sie dabei auch, ob es bei Verlinkungen zu Fehlern kommt weil sich etwa bei der URL vertippt wurde. Crawlen Sie Ihre Seite regelmäßig, um 404 Fehler schnell zu finden und zu beheben.

8. HTTPS ist nicht unbedingt optional

HTTPS war früher nur für Online Shops nötig, wird aber zunehmen für alle Webseiten unumgänglich. Google hat kürzlich verkündet, dass alle Seiten, welche Kreditkarten – oder Passwortdaten akzeptieren ohne HTTPS zu benutzen als unsicher eingestuft werden. Dies wird über ein Symbol im Browser angezeigt. Langfristig soll dies dazu führen, dass alle Seiten ohne HTTPS (auch solche mit http) als unsicher angezeigt werden, so dass HTTPS zum gemeinsamen Standard wird. Es ist Spekulation, aber es erscheint nicht unwahrscheinlich dass Google eventuell HTTPS Seiten auch im Ranking den Vorrang geben wird. Das Nutzen von HTTPS auf der eigenen Seite ist also für das Ranking, aber auch für die Conversion Rate sehr wichtig.

Falls Ihre Seite also noch kein HTTPS nutzt, sollten Sie damit anfangen, die Umstellung auf dieses Format zu planen und dabei unbedingt Ihre SEO Strategie im Kopf behalten, damit Sie keine Rankings verlieren. Nutzen Sie es bereits, überprüfen Sie mithilfe von Tools, ob die Seiten richtig angezeigt werden und ob alle Seiten auch in der HTTPS Version angezeigt werden, damit Sie Fehler schnell beheben können.

9. 301 & 302 Weiterleitungen

Weiterleitungen sind nützliche Werkzeuge, um alte Seitenversionen zu managen, verschiedene Seitenversionen zusammenzuführen und um Webseitenumzüge ohne Probleme umzusetzen. 301 sind dabei permanente Weiterleitungen, 302 sind zeitlich begrenzt. Wenn Sie eine Seite permanent weiterleiten möchten, sollten Sie also unbedingt die 301 Weiterleitungen nutzen.

Dabei sind 301 Weiterleitungen aber kein Allheilmittel für jede Situation. Auch bei 404 Fehlern oder bei rel=canonical tags kann es unter Umständen Sinn machen, andere Lösungen zu nutzen. Auch sollten keinesfalls alle 301 Weiterleitungen auf die Startseite führen.

Falls Sie im Thema 301 Weiterleitungen also unsicher sind, holen Sie sich lieber Hilfe und stellen Sie sicher, dass die Weiterleitungen korrekt genutzt werden. Stellen Sie sicher, dass keine 302 Weiterleitungen für permanente Weiterleitungen genutzt werden und fragen Sie im Zweifelsfall Ihr Team, warum dies so umgesetzt wurde. Das Überprüfen von Weiterleitungen sollte vor allem nach größeren Seitenumzügen oder nach einem Relaunch erfolgen, aber auch bei monatlichen Checks der Seite, um Fehler schnell zu finden und zu beheben.

10. Meta Refresh

Meta refreshes sind noch immer ein Thema, es handelt sich dabei um client-seitige Weiterleitungen und nicht um server-seitige Weiterleitungen (wie beispielsweise 301 Weiterleitungen). Diese Weiterleitungen sollten nicht genutzt werden; Google empfiehlt stattdessen 301 Weiterleitungen. Überprüfen Sie also im Quellcode Ihrer Seite manuell oder mit einem Crawler, ob diese Weiterleitungen genutzt werden und falls ja, wechseln Sie zu 301 Weiterleitungen. Kommunizieren Sie auch an Ihr Team, dass 301 Weiterleitungen für Ihre Webseite der Standard sind und überprüfen Sie regelmäßig, ob die richtigen Weiterleitungen genutzt werden.

11. XML Sitemaps

XML Sitemaps helfen Google und anderen Crawlern von Suchmaschinen dabei, Ihre Seite besser zu erfassen und zu indexieren. Insbesondere für sehr große und komplexe Seiten kann eine XML Sitemap eine sehr große Auswirkung haben.

Damit Google Ihre Seite bestmöglich erfassen kann, sollten Sie unbedingt eine XML Sitemap nutzen, insbesondere wenn Ihre Seite sehr umfangreich ist. Achten Sie dabei darauf, dass Sie die Sitemap korrekt in der robots.txt Datei verlinken und dass es keine unterschiedlichen Versionen der Sitemap gibt. Sie sollten stets die aktuellste Version verlinken und ältere Versionen entfernen. Überprüfen Sie regelmäßig, ob Ihre XML Datei aktuell ist und ob Ihre Seiten darin korrekt erfasst sind. Nutzen Sie wenn nötig Sitemap Indexes.

12. Unnatürliche Wortanzahl und Seitengröße

Je nachdem wie eine Webseite aufgesetzt ist kann es vorkommen, dass auf der Seite kurze Texte zu finden sind, Crawler aber deutlich höhere Wortanzahlen anzeigen. Das kann zum Beispiel passieren, wenn per CSS die allgemeinen Geschäftsbedingen eingebunden und dann aber nicht angezeigt werden. Dies führt nicht nur dazu, dass diese Seiten langsamer laden, es kann auch zu Abstrafungen wegen Cloaking führen.

Sie sollten also unbedingt überprüfen, ob die Wortanzahl Ihrer Unterseiten mit dem tatsächlich angezeigten Text übereinstimmt und notfalls Schritte unternehmen, um Diskrepanzen zu beseitigen. Schauen Sie sich dazu den Quellcode an und stellen Sie sicher, dass kein versteckter Text eingebunden ist. Kommunizieren Sie die Problematik auch an Ihr Team um sicherzustellen, dass zukünftig kein versteckter Text auf Ihren Unterseiten eingebunden wird.

13. Geschwindigkeit

Die Geschwindigkeit einer Seite ist essenziell sowohl für SEO als auch allgemein. Google stellt klar, dass die Ladegeschwindigkeit einer Seite in den Algorithmus einbezogen wird. Sie sollten die Ladegeschwindigkeit Ihrer Seite also unbedingt zu einer der obersten Prioritäten für Ihre Webseite machen. Insbesondere mit der Umstellung auf das mobile Internet und der Tatsache, dass der Zugriff auf viele Seiten verstärkt über mobile Geräte erfolgt, wird Geschwindigkeit zu einem zentralen Faktor.

Stellen Sie sicher, dass Ihre Seite so schnell wie möglich lädt und arbeiten Sie dazu mit Ihrem Team zusammen. Überprüfen Sie mithilfe von Tools regelmäßig die Ladegeschwindigkeit Ihrer Seite und bleiben Sie am Ball was die Geschwindigkeit angeht. Wenn es noch Maßnahmen gibt, die Sie für eine bessere Geschwindigkeit umsetzen können, gehen Sie dies zügig an.

14. Interne Verlinkungen

Die interne Verlinkungsstruktur einer Seite hat einen großen Einfluss darauf, wie gut eine Seite gecrawlt werden kann und damit auch, wie gut Google eine Seite erfassen und indexieren kann. Je größer und komplexer Ihre Seite ist, desto mehr sollten Sie sich auf eine gute interne Verlinkungsstruktur konzentrieren und sicherstellen, dass Ihre Seiten untereinander auf logische und leicht nachvollziehbare Weise miteinander verknüpft sind.

Testen Sie dazu die Manövrierbarkeit Ihrer Seite ruhig einmal selbst aus, indem Sie von einer Seite zur nächsten klicken. Nutzen Sie aber auch Tools um sicherzustellen, dass insbesondere wichtige Seiten mit ausreichend internen Links versorgt sind, so dass sie leicht zu erreichen sind, egal wo man sich in der Seitenstruktur gerade befindet. Behalten Sie das Thema interne Links unbedingt auch im Hinterkopf, wenn Sie neue Seiten erstellen. Machen Sie Ihr Team auf die Thematik aufmerksam und stellen Sie sicher, dass neue Seiten interne Rückverweise erhalten und auch selbst auf alte Seiten verlinkt sind.

Fazit

Wenn Sie keinen SEO beschäftigen ist es gut möglich, dass Ihr Webseitenbetreiber SEO Themen und Probleme nicht ganz oben auf seiner Prioritätenliste hat. Nehmen Sie daher nicht an, dass sich schon irgendwer um diese Themen kümmert sondern stellen Sie sicher, dass dies geschieht. Überprüfen Sie Ihre Seite regelmäßig unter den genannten Aspekten und überlegen Sie, ob sich ein SEO Experte für Sie lohnen könnte um sicherzustellen, dass Ihre Seite optimal für den Wettbewerb auf Google aufgestellt ist.

2017-03-02T17:13:59+00:00