Kategorie: SEO

Update Google Search Console

Search Console Update

Neue Funktionen für die Google Search Console

Nach der Einführung einer neu gestalteten Search Console Anfang dieses Jahres erhält das Google-Tool zur Überwachung und Optimierung der Website-Performance jetzt eine neue Funktion. Mit dem neuen URL Inspection Tool der Search Console können Benutzer Details zu Crawl-, Index- und Bereitstellungsinformationen für eine URL direkt aus dem Google-Index abrufen.

Search Console Update mit neuem URL Inspection Tool

Bereits im Januar hatte Google angekündigt, eine Version der Search Console allgemein einzuführen, nachdem diese bereits einige Monate lang für ausgewählte Nutzer aktiv gewesen war. In dem Bestreben, die Suche transparenter zu machen und mehr Details über die Leistung einer Webseite zu liefern, kündigte der Google Webmaster Central Blog am 25. Juni 2018 den Rollout eines neuen Tools namens „URL Inspection Tool“ als Ergänzung der neuen Search Console an. Laut Google bietet das Tool zur URL-Überprüfung ausführliche Informationen zum Crawling- und Indexierungsstatus einer URL sowie detaillierte Bereitstellungsinformationen. Die Informationen zu den Seiten stammen direkt aus dem Google-Index. Allerdings kann es laut Google ein paar Wochen dauern, bis das neue Tool im Dashboard der Search Console erscheint und genutzt werden kann.

Anwendung des URL Inspection Tool der Google Search Console

Nach der Eingabe einer URL in der Search Console zeigt das URL-Inspektions-Tool das Datum und den Status des letzten Crawls, alle Crawl- oder Indexierungsfehler für diese Seite an. Wenn die Seite erfolgreich indiziert wurde, liefert das Tool gegebenenfalls Verbesserungsvorschläge. Wenn die URL nicht erfolgreich indiziert wurde, liefert Google Informationen zu Gründen und Möglichkeiten, die Probleme oder Fehler zu beheben. Das Tool zeigt Benutzern ebenfalls an, ob mehrere Seiten vom selben Problem betroffen sind. Es liefert zudem Informationen über Meta-Tags, noindex robots und die kanonische URL von Google für die Seite. Google hofft, dass das URL Inspection Tool den Nutzern der Search Console helfen wird, Probleme mit neuen oder bereits vorhandenen Seiten im Google-Index finden und beheben zu können.

Weitere neue Funktionen der Search Console

Neben dem URL Inspection Tool hat Google einige weitere Funktionen hinzugefügt, um die Search Console zu verbessern. Dazu gehören die Bereitstellung der Traffic-Daten der letzten 16 Monate anstelle der bisher üblichen letzten 90 Tage. Ein neuer Recipe Report hilft bei der Lokalisierung und Behebung von Problemen bei strukturierten Daten. Nicht zuletzt bietet der neue Performance Report jetzt mehr Klarheit über die Sichtbarkeit einer URL in den Suchergebnissen und beinhaltet zudem Ergebnisse Web Light und Google Play Instant.

Die neuen Funktionen des URL Inspection Tools und der Search Console sind zwar nicht für alle Benutzer von Bedeutung, aber das Tool selbst ist hilfreich bei der Fehlerbehebung und bietet einen besseren Einblick in das Crawling von Google. Es vereint eine Handvoll Werkzeuge in einer Plattform, sodass jetzt Scans der strukturierten Daten und AMP-Seiten ausgeführt werden können, um Fehler zu erkennen, ohne mehrere verschiedene Tools verwenden zu müssen.

Shopware Optimierung

Die Shopware Optimierung mit vielen Neuerungen und neuen Systemen

Shopware ist ein modulares Online-Shopsystem, das es seinen Nutzern ermöglicht, einen oder mehrere Online-Shops effizient zu managen und zu optimieren. Seit der ersten Version im Jahr 2004 entwickelt Shopware sein System kontinuierlich weiter. Die kürzlich auf dem Shopware Community-Day vorgestellte Version 5.5 bringt zahlreiche nützliche Weiterentwicklungen. Zusätzlich deutet sich an, dass im Rahmen der Shopware Optimierung ein kompletter Systemwechsel ansteht.

Mit der intelligenten Analysefunktion in die Zukunft

Die vielleicht wichtigste Shopware Optimierung in der Version 5.5 ist die intelligente Analysefunktion. Shopware setzt damit konsequent auf Zukunftstrends und verschreibt sich der Einbindung von künstlicher Intelligenz und Automatisierung. Das neue Analysetool wertet nicht mehr nur Statistiken aus der Gegenwart aus, sondern gibt nun auch Prognosen über die Zukunft ab. Dabei greift Shopware auf vorhandene Informationen und Daten zurück und hilft dem Shopbetreiber, nützliche neue Zusammenhänge zu erkennen. Mit der Neuinterpretation der historischen Daten gibt das System nun Ausblicke auf neue Zielgruppen und Kundenstrukturen.

Shopware Optimierung durch mehr Performance und dem Ende von Ioncube

Zwei Punkte, die den Nutzern auf dem Community-Day besonders gefallen haben, sind die Performanceverbesserungen und der Wegfall der Ioncube-Verschlüsselung. Die neue Version gewinnt an Performance unter anderem durch Updates des Jquery Frameworks. Weitere Verbesserungen sind eine Ausweitung von Elasticsearch, ein überarbeiteter Warenkorb sowie ein verbessertes Caching. Die Shopware Optimierung setzt außerdem an einem Punkt an, der viele Nutzer schon lange gestört hat: Die Einschränkung der Quellen durch die Ioncube Verschlüsselung ist endgültig Geschichte.

Internationalisierung und verbesserte B2B-Suite bringen Shopware voran

Shopware drängt bei der Weiterentwicklung auf die Internationalisierung seines Angebots und seiner Kunden. Hierzu hat das Unternehmen das Handling unterschiedlicher Steuersätze vereinfacht. Auch können nun Kategorien, Shopseiten und Formulare schlicht übersetzt werden, ohne dass eine aufwendige Duplizierung nötig ist. Der Trend zur Internationalisierung zeigt sich auch in den Zahlen: Mehr als 50 Prozent aller Neuinstallationen des vergangenen Monats wurden im Ausland vorgenommen. Auch bei der B2B-Suite treibt Shopware seine Optimierung voran: So können Kunden eines B2B-Shops zukünftig Bestellungen anhand ihrer kundenspezifischen Artikelnummer vornehmen.

Shopware Optimierung bedeutet neu denken

Die Shopware Optimierung an der Version 5.5 geht über eine simple Modellpflege weit hinaus – dennoch scheint es, als hätte Shopware noch deutlich mehr in der Hinterhand. Hinweise darauf gibt die Vorstellung der neuen Plattform „Playground“.

Mit dem Playground bindet Shopware seine Community ein, um eine komplett neue technische Basis für sein System zu entwickeln. Die Vision: Shopware soll in Zukunft nicht mehr nur ein System sein, sondern ein ganzes Netz an untereinander verknüpften System abdecken. Wie das funktionieren soll? Um den schnellen Wandel in der Online-Shoppingwelt gerecht zu werden, möchte Shopware in Zukunft Systeme in verschiedenen Kategorien anbieten. Während klassische Shop-Software ein Bündel aus Frontend und Backend anbietet, könnten diese Kategorien in Zukunft aufgesplittet werden. Als neue Systemkategorien würden sich beispielsweise Software-as-a-Service oder Plattform-as-a-Service beziehungsweise E-Commerce-Frameworks anbieten. Durch die Shopware Optimierung möchte das Unternehmen all diese Systemkategorien abdecken.

Zur Zeit testet die Community die neue technische Basis in dem Playground intensiv, bis es im Herbst 2018 zur finalen Feedbackrunde kommt. Es bleibt also spannend in Sachen Shopware Optimierung!

Canonical Tags

Canonical Tags sind hilfreiche Tools für Webseiten. Sie werden immer dann verwendet, wenn es sich um den gleichen Inhalt von Beiträgen auf gleichen Domains mit unterschiedlichen Endungen handelt. Mit entsprechendem Canonical Tag im Quellcode der Webseite informieren Sie Suchmaschinen davon, dass eine der Seiten nicht indexiert werden soll. Diese Option wurde geschaffen, um das Problem von Duplicate Content zu verhindern und Abstrafungen zu vermeiden. Ein sinnvoller Tag für Webseitenbetreiber, wenn er klug eingesetzt wird – denn in letzter Zeit gibt es ein unangenehmes Problem mit den Canonical Tags.

Der Zufall entdeckt die Verbindung von Canonical Tags und Spamseiten

Demnach gibt es laut Roger Montti vom Search Engine Journal schwere Attacken auf Webseiten, die einerseits Aktion verlangen, andererseits schwer zu identifizieren bzw. zu handhaben sind. Es handelt sich um gezielt gesetzte Canonical Tags, die von Spamseiten kommen und dem Original schweren Schaden zufügen. Denn sobald der Canonical Tag einmal auf der Spamseite besteht, erkennen die Suchmaschinen diesen als das Original an und verschieben die echte Webseite ins Suchmaschinen Nirwana. Die Folge: Schwere Rankingverluste. Der Schaden kann immens sein, zumal die Webseiteninhalte des Opfers plötzlich als spamlastige Seiten assoziiert werden. Herausgefunden hat das neue Phänomen Bill Hartzer, ein Texaner in der SEO-Branche, der einem Kunden mit völlig unverständlichen Rankingverlusten zur Seite stand.

Nach intensiver Suche entdeckte er, dass die Spam-Webseite den originalen Head-Bereich seines Kunden nicht nur kopiert, sondern einen Canonical-Tag gesetzt und mit spamhaltigen Content versehen hat. Das Ergebnis war katastrophal, denn plötzlich gingen wichtige Rankingpositionen verloren. Mehr als das wurde die Webseite des Opfers als „Erwachsenen Inhalt“ – also pornografisch eingestuft. Google selbst beschreibt es ebenso deutlich und sagt klar, dass der Head-Bereich von Seite A zur Seite B kopiert wurde, in diesem Falle ist Seite B der Bösewicht. Das weitaus größere Problem: Die Quelle solcher Copy Canonical Tags ist extrem schwer herauszufinden. Der ansonsten erkennbare Link über das Linkbuilding ist in diesem Fall nicht vorhanden.

Extreme Rankingverluste durch Spam Canonical Tags

Nur mit dem von Hartzer genutzten Seo-Tool konnte das Problem erkannt werden. Plötzlich tauchten ungewöhnlich viele Backlinks auf, die nicht von ihm bzw. seinem Kunden gesetzt wurden. Ein weiteres Merkmal, dass es sich um bewusst falsch gesetzte Canonical Tags handelt, sind die Werte der eingehenden Links: Hoher Citation Flow und niedriger Trust, charakteristisch für diese Seo-Attacke. Ebenso typisch ist die plötzlich auftretende Abwertung der Originalseite. Wir sprechen hier von Rankingverlusten bis zu 80 Positionen, ausgehend von Position 1. Solche Verluste bleiben natürlich nicht lange unbemerkt. Eine Überarbeitung der Canonical Tags ist nach Meinung des Seo-Experten Jonas Weber nicht notwendig. Auch Google setzt auf Entwarnung und sagt, dass der Suchmaschinengigant Copys und Scraper meist erkennt.

Die Relevanz von Backlinks im Jahr 2018

Relevanz von Backlinks 2018

Im SEO Bereich werden gerne polarisierende Behauptungen aufgestellt. Mal heißt es, dass die Keyworddichte keine Relevanz mehr hat, ein anderes Mal dass das Linkbuilding tot sei. Letztere Aussage wurde vom Google Webmaster Trend Analyst Gary Illeys vor kurzem erst als falsch bewiesen. Er erklärte in einem Tweet im Februar, dass PageRank als wichtiges Trustsignal für Webseiten bei Google nach wie vor eine wichtige Rolle spielt. Bisher konnten wir noch keine Webseite finden, die gut auf ein umkämpftes Keyword rankt ohne dazu Backlinks auf die Domain zu nutzen.

Wie sehen gute Links für die Suchmaschinen bzw. Google aus?

Bei Backlinks kommt es immer ganz auf die Art des Links an. Es sollte immer darauf geachtet werden, dass die Links dem Nutzer einen Mehrwert bringen. Links ohne einen Mehrwert für die Nutzer, die eher zufällig und ohne Plan gesetzt werden, sind tatsächlich eher nutzlos. Es sollte daher darauf geachtet werden, dass Backlinks auf relevanten Seiten gesetzt und an solchen Stellen platziert werden, an denen realistisch erwartet werden kann, dass der User mit ihnen interagiert. Findet eine solche Interaktion statt, werden die Links kommentiert und angeklickt, wirkt sich dies positiv auf die Ranking-Faktoren aus. Die Kontextualisierung und Sinnhaftigkeit des Links ist hier ebenso entscheidend, wie der tatsächliche Mehrwert für den Nutzer.

  • Google kann erkennen, welche Links viel Traffic generieren und somit viele positive User-Signale aufweisen. Das Nutzerverhalten auf den Webseiten wird also analysiert und als Indikator für die Relevanz eines Keywords für den Inhalt der entsprechenden Seite herangezogen.
  • Google bewertet Backlinks von einigen Seiten als Trustsignal. Dabei handelt es sich zum Beispiel besonders um Links auf Webseiten, welche inhaltlich eine hohe Relevanz zur Zielseite aufweisen und dabei selbst als Autorität auf ihrem Gebiet im Netz erkannt werden. Links von solchen Seiten können das Ranking ebenfalls verbessern.

Warum sind Links auch heute für Webseiten-Betreiber unverzichtbar?

Was von SEO-Experten mit der Behauptung, Links seinen nicht mehr relevant, häufig vergessen wird: Das Internet besteht aus Verlinkungen. Erst durch Backlinks wird guter Content häufig erst entdeckt. Ebenso basiert das Entdecken und die Indexierung von Webseiten durch Google im Grunde auf Links. Somit werden solche Links von anderen Seiten selbstverständlich als Kriterium für die Bewertung von Seiten und für den Ranking-Faktor herangezogen. Die essenzielle Bedeutung von Links für das Ranking einer Seite wird auch von Google selbst immer wieder bestätigt. Ein langfristig positives Ranking mit nachhaltigem Effekt wird ohne Backlinks auch heute kaum erreicht werden können. An guten Links kommt man einfach nicht vorbei.

Der Google Mibile First Index wird ausgerollt

Google Mobile First Index wird jetzt eingespielt

Der Mobile First Index wurde von Google bereits eineinhalb Jahre getestet, nachdem das Update im November 2016 angekündigt wurde. Nun hat die Firma mit dem Rollout-Prozess begonnen und die Betreiber der migrierten Seiten über die Search-Console benachrichtigt.  Seit Montag wird mit und mit eine größere Anzahl an Webseiten in den mobilen Index migriert, wobei die erste Handvoll Seiten bereits im Oktober testweise im Index aufgenommen wurden.

Wie die mobile Version einer Webseite von Googles Mobile First Index bewertet wird

Google wird damit von nun an die mobile Version einer Webseite als Kriterium für die Relevanz für die mehrheitlich mobilen Nutzer heranziehen. Somit sollten sich die Betreiber von Webseiten spätestens jetzt darum bemühen, dass ihre Seite über eine responsive und optimierte mobile Version verfügt. Ein solches responsive Design und die korrekte Implementierung der dynamischen Bereitstellung von Inhalten sorgen dafür, dass die Nutzung des Webangebotes durch mobile Hardware für den Besucher besonders leicht ist.

Alle Webseitenbetreiber, die in den Mobile First Index aufgenommen werden, wird Google direkt über die Search-Console informieren. Man muss sich laut Google nicht direkt um die Positionen in den Rankings sorgen, nur weil man nicht in der ersten Welle der Indexierungen mit dabei war. Laut dem Suchmaschinenbetreiber gibt es für mobilen Content im Mobile First Index keine Vorteile gegenüber anderen mobilen oder Desktop-Angeboten.

Die Optimierung für den Mobile First Index sollte ernst genommen werden

Trotzdem werden die Webseitenbetreiber durch Google noch einmal dazu aufgerufen, ihre Inhalte für die Nutzung durch mobile User zu optimieren. Bei der mobilen Suche wird mobil-optimierter Content bereits seit 2015 zum Teil bevorzugt. Solche Seiten, die langsam laden, sollen ab Juli 2018 benachteiligt werden können, und zwar sowohl in den Rankings am Smartphone als auch bei denen am Desktop.

Google bietet ein eigenes Tool an, mit dem Webseitenbetreiber testen können, inwieweit die eigene Webseite für die neue Indexierung bereit ist.

Update am Google COre Algorithmus

Neues Google Update: Core Algorithmus geändert

Ganz normal im SEO-Alltag sind mittlerweile die kleinen Updates von Google geworden, nicht aber Eingriffe in den Core Algorithmus. Danny Sullivan von Google twitterte am 12. März, dass Änderungen im Core Algorithmus vorgenommen worden seien. Grundsätzlich kann man also von keinem Update sprechen. Nichtsdestoweniger haben die Eingriffe dazu geführt, dass es in den Suchergebnissen deutliche Gewinner und Verlierer gab. Eines darf man bei der Suchmaschinenoptimierung nämlich nie vergessen: Google kennt keinen Daten-Stillstand. Aber was genau ist passiert? Worauf müssen Webseitenbetreiber in Zukunft achten?

Versuche das Muster zu erkennen – Google Update

Mit den letzten Updates wie Penguin oder Panda haben einige Webseiten deutlich an Relevanz verloren. Hier wurde der unnatürliche Backlinkaufbau überprüft und mit Sanktionen bestraft. Man kann sich diese Updates als „Filter“ vorstellen, die über die Suchergebnisse laufen und spezifische Schwachstellen bzw. Unregelmäßigkeiten bei Webseiten aufdecken. Bei dem jetzigen „Update“ ging es allerding keineswegs darum, Webseiten abzumahnen, sondern die Qualität der Suchergebnisse zu verbessern. Die Ursachen für das Core-Update liegen wahrscheinlich nicht bei Faktoren wie Backlinks oder Mobile-First-Index. Damit geht Google eher auf die jeweiligen Suchintentionen und nicht auf z. B. Rankingfaktoren wie HTTPS oder Ladegeschwindigkeit ein. Die wichtigsten Stellschrauben zum besseren Ranking in den organischen Suchergebnissen betrifft das Google Update somit nicht. Ziel ist es also weiterhin, dies hat Google dazu noch preisgegeben, dem User Content mit Mehrwert zu liefern und den User-Intentionen zu entsprechen. Damit muss grundsätzlich an den Verlierer-Webseiten nichts „repariert“ werden; es gibt bis dato keinen Fix für SEO-Maßnahmen. Wie kann ich also erkennen, ob meine Webseite betroffen ist? Der Sichtbarkeitsindex sollte einen charakteristischen Anstieg oder Abfall des Wertes in diesem Zeitraum markieren. Interessant ist, dass viele betroffene Webseiten bereits auf das Unknown-Update aus 2017 reagiert haben.

Beispiel Entwicklung des Sichtbarkeitsindex durch das Core Aupdate

Anschauungsbeispiel: semtrix.de hat sich durch das Core Update im Sichtbarkeitsindex sichtlich verbessern können.
Der Wert ist um 56,9% auf ein Allzeithoch von 1,442 gestiegen. (Quelle: SISTRIX Toolbox)

Google Core Update – wer hat verloren, wer hat gewonnen?

In der Welt der Suchmaschinenoptimierung muss man extrem anpassungsfähig bleiben. Gleichzeitig benötigt SEO auch Zeit und Geduld. Nicht nach jedem Update müssen Webseiten-Betreiber in Panik geraten und die SEO Strategie umstrukturieren, denn durchschnittlich führt Google jährlich rund 500 Verbesserungen durch. Deutlichere Auswirkungen auf die Sichtbarkeit in den Suchergebnissen und langfristige Entwicklungen werden sich auch bei diesem „Update“ erst mit der Zeit zeigen. Mitgedacht werden muss, dass Google niemals aufhören wird, die Suchergebnisse qualitativ zu verbessern. Damit wird das System weiterhin ausgebaut, um Muster in den gelieferten (inhaltlichen) Daten zu finden und diese Signale effizient auszulesen (Google-Index). Denn man muss sich vorstellen, dass es zu einem Suchbegriff tausende bzw. Millionen von Webseiten gibt. Diese manuell nach dem gesuchten Inhalt zu durchforsten, wäre unmöglich. So werden Anfragen von Nutzern in Zukunft immer besser beantwortet werden. Dazu hat Google circa 200 Ranking-Faktoren bestimmt, die die Qualität und Relevanz einer Webseite beurteilen, zugleich aber auch einen Maßnahmenkatalog für die Suchmaschinenoptimierung geben. Gewinner des Google Core Updates, wie z. B. Kategorie- und Beratungsverzeichnisse, große Marken oder populäre Domains, haben hier scheinbar einiges richtig gemacht.

FAKE Google Bewertungen

Fake Bewertungen bei Google

Wie gehe ich mit Fake Bewertungen auf Google um?

Gefälschte oder unberechtigte Bewertungen auf Google werden besonders für kleine und mittelständische Unternehmen zu einem immer größer werdenden Problem. In der anonymen Welt des World Wide Web ist es sehr leicht, einen Account zu erstellen und mit diesem Bewertungen zu schreiben – sowohl positive wie auch negative und dabei spielt es keine Rolle, ob man mit dem bewerteten Unternehmen jemals zusammengearbeitet oder generell Erfahrungen gemacht hat.

Es existieren unzählige Richtlinien für User, die auf Google Bewertungen schreiben möchten. Was Google aber sehr schwer zu fallen scheint: Eine automatische Erkennung und Filterung von Bewertungen, die gegen die Richtlinien verstoßen. Als Online Marketing Agentur haben wir immer wieder mit den Bewertungen unserer Kunden zu tun und es passiert nicht selten, dass die wir eine Anfrage bekommen, die die Entfernung negativer Bewertungen beinhaltet: „Ich habe eine 1-Sterne-Bewertung von einer Person bekommen, die ich nicht kenne.“ Die gute Nachricht ist, dass es tatsächlich möglich ist, negative Bewertungen entfernen zu lassen. Dazu benötigt man allerdings eine genaue Dokumentation der Ereignisse und muss detailliert aufzeigen können, in welchen Bereichen die Bewertung gegen die Richtlinien verstößt. Der schnellste Weg ist, Google über die Social-Media-Kanäle wie Twitter und Facebook oder über das Forum zu kontaktieren.

Vor einigen Wochen wurde einer unserer Kunden mit mehreren gefälschten Bewertungen innerhalb eines Tages konfrontiert. Es waren 3 Bewertungen mit je einem Stern, davon zwei ohne Text. Eine Bewertung ohne Text von Google entfernen zu lassen ist allerdings ein äußerst schweres Unterfangen, da man von Google immer hören wird, dass diese Bewertungen gegen keinerlei Richtlinien verstoßen, da es keinen Text gibt, der gegen etwas verstoßen kann. Selbstverständlich wusste unser Kunde, dass diese 3 Bewertungen von keinem seiner Kunden kommen konnten – so hat er einen ausgewählten Kundenstamm und wäre darüber informiert, wenn einer seiner Kunden unzufrieden mit ihm wäre.

Negativen Bewertungen – was ist das größte Problem?

Google kann nicht wissen, wer Ihre Kunden sind und wer nicht – und somit wird die Aussage „Das ist nicht mein Kunde!“ niemals als Grund für eine Entfernung der Bewertung akzeptiert. Unter anderem gestattet es Google, anonyme Benutzernamen für die Konten zu verwenden – dass Sie in solchen Fällen die echte Identität des Nutzers herausfinden und nachweisen können ist dementsprechend nicht möglich.

Die andere Problematik besteht darin, dass man letztendlich kein Kunde Ihres Unternehmens sein muss, um es schlecht bewerten zu können. Vielleicht hat jemand versucht Sie anzurufen und ist nicht durchgekommen? Vielleicht haben Sie eines Tages beim Abbiegen vergessen zu blinken und haben Ihr Logo auf der Heckklappe? – Gründe für schlechte Bewertungen sind mannigfaltig.

Wie geht es weiter?

Für viele Unternehmen im kleinen und mittelständischen Segment stellt jede schlechte Bewertung eine echte Gefahr dar. Selbstverständlich spielt dabei auch immer die Gesamtanzahl der Bewertungen eine Rolle. Hat man aber, wie unser Kunde, insgesamt nur 12 Bewertungen, so tun 3 negative Bewertungen doppelt und dreifach weh – denn aus einer Gesamtbewertung von 4,6 Sternen entwickelte sich eine nicht mehr ganz so schöne 3,8. Was in diesen Fällen nicht hilft, ist in Panik zu verfallen. Wie wir weiter oben beschrieben haben, wird es nicht möglich sein, die Bewertungen ohne Text entfernen zu lassen. Man könnte also sagen, dass sie bis auf weiteres in Stein gemeißelt sind.

Die Lösung: Auf das Problem aufmerksam machen!

Wir haben unserem Kunden in diesem Fall empfohlen, über Twitter und Facebook auf sein Problem aufmerksam zu machen. Das Feedback darauf war sehr gut. So hat sein Aufruf dazu geführt, dass er von ehemaligen Kunden und Bekannten, die sein Geschäft kennen, viele neue und positive Bewertungen erhalten hat, welche die negativen Bewertungen kompensiert und „nach hinten“ geschoben haben.

Aber was ist mit der Entfernung von Bewertungen?

Wir haben es in der Vergangenheit bereits geschafft, offensichtlich gefälschte, böswillige oder unwahre Bewertungen von Google löschen zu lassen. Hierzu benötigt man eine genaue Dokumentation, die auf Regelverstöße hinweist. Leider ist es aber häufig nicht möglich, Bewertungen zu entfernen (Stichwort: Bewertung ohne Text). In diesem Fall empfehlen wir, auf jede der Bewertungen eine Antwort zu schreiben, welche entweder aufzeigen wird, dass die Bewertung von einer Person verfasst wurde, die Sie nicht kennen bzw. nie Kunde war oder im Fall von Unwahrheiten auf die Wahrheit hinweist. Die gleiche Empfehlung gilt selbstverständlich auch für zurecht abgegebene negative Bewertungen – nobody is perfect 😉 –, aber wenn Sie Fehler einsehen und dem Verfasser der Bewertung entgegenkommen, wird sich ggf. eine Lösung finden.

Übrigens: Studien haben bewiesen, dass bei Bewertungen ein Durchschnitt zwischen 4,2 und 4,5 ideal ist. So ruft ein Bewertungsdurchschnitt von 5,0 bei vielen Besuchern Misstrauen hervor.

google_rankingfaktoren_2018

Rankingfaktoren 2018 – Neuigkeiten aus der SEO-Welt

Suchmaschinenoptimierung ist ein Bereich, der sich ständig im Wandel befindet und von Updates des Google Algorithmus betroffen ist. Google ist immer noch Marktführer bei der weltweiten Suche im Internet, sodass SEO-Gurus wie Rand Fishkin bereits zu Beginn des Jahres einen Einblick in die Prophezeiungen der Google-Welt gegeben haben. Auch für das neue Jahr gibt es Tendenzen, die bei einer Suchmaschinenoptimierung beachtet werden sollten. Für Webseiten-Besitzer ist es daher wichtig, den Überblick zu behalten, wenn durch die organische Suche weiterhin Anfragen und Kunden gewonnen werden sollen.

Unser Tipp: Bei jeder SEO Optimierung muss der Ist-Zustand einer Webseite vorab klar sein, bevor die technischen, strukturellen oder redaktionellen Elemente verändert werden. Die Frage, die sich jeder Webseiten-Betreiber stellen sollte, lautet also: Was ist der Status quo meiner Webseite?

Mobile First – mobile Versionen für Webseiten sind entscheidend

Das sog. Responsive Webdesign war schon 2017 in aller Munde und wurde in vielen SEO-Ratgebern empfohlen. Analysen des Nutzerverhaltens haben verstärkt gezeigt, dass der Zugriff auf die Suchfunktion von Google zunehmend über mobile Endgeräte erfolgt. Künftig wird der Mobile Index also nicht nur wichtig sein, sondern die Suchmaschinenoptimierung erheblich beeinflussen. Gerade Shop-Besitzer sollten Inhalte und Struktur sowie auch die Ladegeschwindigkeit an die mobile Darstellung anpassen. Unter https://testmysite.withgoogle.com/intl/de-de kann die Ladegeschwindigkeit für mobile Endgeräte kostenlos getestet werden.

Content is king – Inhalte mit Mehrwert liefern

Bereits im letzten Jahr heiß diskutiert, ist es dieses Jahr kein Geheimnis mehr, dass hochwertiger und einzigartiger Content zu einer besseren Positionierung bei Google führen. Grundsätzlich ist es ratsam, den Content einer Seite – dazu gehören auch Bilder, Videos oder Tabellen – einheitlich, zielführend und auf die Zielgruppe ausgerichtet zu präsentieren. Damit der Text einen Mehrwert für den Besucher einer Webseite bietet, ist es sinnvoll, diesen mit Überschriften und Absätzen zu strukturieren und das Keyword gekonnt einzusetzen. Zudem sollte der Text zu den angebotenen Produkten oder der Dienstleistung passen. Es ist wichtig, dem Besucher die erwarteten Ergebnisse benutzerfreundlich zu präsentieren. Nicht vergessen: Google ist immer noch eine textbasierte Suchmaschine und orientiert sich an den hinterlegten Datensätzen. Sind diese gut strukturiert, hat dies einen Einfluss auf das Ranking. Ein stimmiges Gesamtkonzept ergibt sich ebenfalls, wenn die Bilder einer Webseite durch gute Bildunterschriften mit ALT-Tags, einer passenden Größe und Auflösung sowie auf die optimale Position optimiert werden. Die verbesserte Übersichtlichkeit lässt sich entsprechend am positiven Benutzerverhalten ablesen. Duplicate Content zählt weiterhin zu den SEO-Sünden und hat im schlimmsten Fall eine schlechtere Position in den Suchergebnissen zur Folge.

Sicherere Webseiten – HTTPS/ SSL-Zertifikat verbessern das Ranking

Auch die Verschlüsselung von Webseiten ist für Google ein wichtiger Rankingfaktor. SSL-Zertifikate sind insbesondere für Online-Shops wichtig, denn hier werden sensible Kundendaten verarbeitet. Das Vertrauen zwischen Besuchern und Webseite sollte von Anfang hergestellt sein. Schon jetzt werden unsichere Webseiten mit einer Markierung in der Adressleiste gekennzeichnet und sind optisch sofort von verschlüsselten Seiten zu unterscheiden. Datensicherheit ist ein mediales Thema, dass über eine deutliche Verschlüsselung für den Besucher klare Signale sendet.

Featured Snippets und längere Description

Featured Snippets sind neben den üblichen organischen Suchergebnissen und den bezahlbaren AdWords ein weiteres Mittel, die Anfragen von Nutzern zu beantworten, und damit auf Platz 0 zu rutschen. Eine Möglichkeit von Google, die Suchergebnisse weiter zu verbessern und dem Nutzer eine direkte Antwort auf seine W-Fragen zu geben, z.B. mithilfe von einem Text-Block, Videos, Listen oder Tabellen. Interessant ist, dass Google bisher selbständig entscheidet, bei welcher Suchanfrage Features Snippets angezeigt und welche Domain verwendet wird. Eine andere Möglichkeit bieten die Rich Snippets: Über Bewertungssterne, Öffnungszeiten, Veranstaltungen etc. kann die Sichtbarkeit für die eigene Webseite gesteigert und die Klickrate erhöht werden.

Daneben bietet aber auch die Description erweiterte Optionen, die bei einer Optimierung beachtet werden müssen. Mithilfe der Description und des Title Tags wird dem Besucher ein erster Eindruck über die Inhalte der Webseite vermittelt. Qualitativ hochwertig und mit dem zugehörigen Keyword kann damit das Klickverhalten beeinflusst werden. Die bisherige Reduzierung auf ca. 150 Zeichen pro Description stellte manche Webseitenbetreiber vor eine Herausforderung. 300 Zeichen, also 4 Zeilen im Suchergebnis, bieten Webmastern mehr Freiheiten, ein Produkt oder eine Dienstleistung mit prägnanten Phrasen, Unicode-Symbolen und dem zielgruppen- sowie wettbewerbsabhängigen Keyword informativ, werbend und „klickbar“ zu formulieren.

Linkmarketing – thematische Verlinkungen verhelfen zu mehr Präsenz

Wenn alle oben genannten Punkte beachtet wurden, ist natürliches Linkbuilding immer noch ein entscheidender Faktor bei der Suchmaschinenoptimierung. Hier ist es wichtig, für eine Domain verschiedene qualitative und thematisch relevante Verlinkungen, also Empfehlungen, sukzessiv zu generieren. Domains mit guten metrischen Werten und hoher Domain-/Page-Authority liefern der eigenen Webseite starke Verlinkungen, die sich positiv auf das Ranking auswirken. Linkmarketing zählt also zu den strategischen Mitteln der Suchmaschinenoptimierung und kann in Kombination mit einer durchdachten Onpage Optimierung die Internetpräsenz einer Webseite dauerhaft verbessern.

Suchmaschinenoptimierung 2018 – Qualität ist entscheidend

Keiner der vorgestellten Bereiche ist neu, dennoch kann man feststellen, dass Suchmaschinenoptimierung genau wie Google an Tiefe gewinnt und es wichtig ist, Suchergebnisse mit Qualität und Mehrwert zu liefern – für Google und die Nutzer. Sobald die Daten einer Webseite sinnvoll in das semantische Konzept eingepflegt wurden, die Webseite rein optisch an Übersichtlichkeit gewinnt, kann auch Google besser auf die Struktur zugreifen und die Seite nach dem Indexieren in den ersten Sucherergebnissen positionieren.