Googles Linkattribute haben am 01. März 2020 ein Update erhalten, welches „no follow“-Links neu bewertet.

Was sollte nun bei bisher oder zukünftig gesetzten „no follow“ Attributen beachtet werden?

Um den Einfluss der Änderungen zu verstehen, ist ein kurzer Rückblick von Vorteil – diesen wollen wir in diesem Artikel skizzieren.

2005: Einführung des „no follow“ Attributs

Seit Januar 2005 ermöglicht die Kennzeichnung rel=„no follow“, Links zu setzen, die keine Empfehlung darstellen sollen. Nützlich ist das für Links, die gekauft wurden, als Werbung fungieren oder in Nutzer-Kommentaren aufkommen.

Der ursprüngliche Zweck war vor allem das Unterbinden von Kommentar-Spam in Blogs.

Das “no follow“-Attribut, übersetzt „nicht folgen“, sorgt dafür, dass das Ranking vom Einfluss von minderwertigen Spam-Links und Webseiten verschont bleibt. Google unterlässt somit in der Regel das Verfolgen dieser Links.

Trotzdem besteht über Sitemaps und Verlinkungen anderer Seiten noch die Möglichkeit, dass diese Links gecrawlt werden. Generell kann Google kann lediglich Links bzw. rel-Attribute verfolgen, die mit einem Tag gekennzeichnet sind. rel=“no follow“ ist wiederum eine Ausnahme, weil es auch als Robots-Meta-Tag funktioniert. Durch das „no follow“ Attribut kam es aber bis 2019 in der Regel nicht zu einem Einfluss im Ranking, Crawling oder Indexing.

2019: sponsored, ugc, no follow

Im September 2019 ergänzte Google die Attribut-Kennzeichnung „sponsored“ und „ugc“ eine optionale Ergänzung zum „no follow Attribut“. Die Kennzeichnung als „sponsored“ macht für jeglichen finanzierten Inhalt, also Werbung, Sinn.

„ugc“ meint „user generated content“, von Nutzern erstellte Inhalte. „ugc“ kann also für den usprünglichen Zweck des „no follow“ genutzt werden, also Kommentar-Spam und ähnliche unsichere Inhalte von Nutzern.

Allerdings wird empfohlen, vertrauenswerte Nutzer von der Markierung als „ugc“ auszuschließen, da sie für eine Verbesserung im Ranking sorgen können. Google kann auf diese Weise die „no follow“-Links in nützlich und weniger nützlich einteilen. Zusätzlich kann es seitdem trotz der „no follow“-Kennzeichnung zu einem Einfluss im Ranking kommen.

2020: no follow im Crawling und Indexing

Seit dem März 2020 muss bei allen drei „no follow“ Varianten davon ausgegangen werden, dass sie im Crawling und Indexing einbezogen werden. Das ist Google erst dadurch ermöglicht worden, dass nun nutzerbezogene und gesponserte Links unterscheidbar geworden sind.

Das beste Beispiel für den Einsatz des „no follow“ Attributs ist wohl Wikipedia, da dort alle ausgehenden Links als „no follow“ markiert sind. Der Grund ist, dass die Artikel von jedem bearbeitet werden können. Die Wahrscheinlichkeit für minderwertige Inhalte ist groß, sodass die Seite sich mit dem Attribut vor der Abstrafung von Google schützt.

Seit dem 01. März ist es nun möglich, dass eine Seite mit vielen Links von Wikipedia im Ranking steigt, da Wikipedia von Google als vertrauenswürdig eingestuft wird.

Besteht Handlungsbedarf?

Grundsätzlich müssen durch die Neuerungen von Google erstmal keine Abstrafungen befürchtet werden, vielmehr sollte man die Neuerungen nutzen um an potenzielle Ranking-Verbesserungen teil zu haben.

Zwar bestätigt Google selbst nicht, dass die Unterteilung in „ugc“ und „sponsored“ bevorzugt wird, trotzdem könnte es vorteilhaft sein. Schließlich hat Google ein Interesse daran, Links möglichst genau einteilen und lesen zu können.

Bezahlte Links müssen aber in jedem Fall als „sponsored oder „no follow“, optional aus einer Kombination von beidem, gekennzeichnet werden, ansonsten ist eine Abstrafung seitens Google zu befürchten.

Bisher gesetzte „no follow“ Attribute, die nicht gesponsert sind, können allerdings getrost bestehen bleiben.

Aber was kann man noch tun um Indexierung und Crawling von Google zu unterbinden?

Möglichkeiten von robots.txt

Via robots.txt und dem Robots Exclusion Protocol hat der Webmaster die Möglichkeit, sowohl den Index als auch das Crawling von Suchmaschinen zu beeinflussen. Robots.txt ist nur ein Teil des Robots Exclusion Protocol, welches das Verhalten von Web-Robots wie Suchmaschinen reguliert. Das Protokoll enthält Richtlinien wie Meta Robots, sowie Anweisungen, die Seiten, Unterverzeichnisse oder Seiten-übergreifendes Behandeln von Links betreffen, wie „follow“ oder „no follow“-Instruktionen.

Bevor eine Webseite ausgelesen wird, muss zuerst die robots.txt Datei ausgelesen werden. Der Inhalt der robots-Textdatei legt fest welche Handlungen Suchmaschinen auf der Webseite erlaubt wird bzw. welcher Inhalt verborgen bleiben soll. Damit die angegebenen Seiten nicht in den Index aufgenommen werden, müssen Webmaster sich an die Vorgaben im robots.txt halten.

Warum bewertet Google nun Links neu?

Google hat ein großes Interesse daran, möglichst genaue Empfehlungen für Seiten auszusprechen. Dementsprechend wird versucht Webmaster zu immer genauerer Kennzeichnung zu zwingen, damit Google die Seiten besser lesen kann.

Konsequenzen für Webmaster

Wie soll man nun die neue Wertung des „no follow“ Attributs nutzen?

Im Prinzip ändert sich nicht viel, die neuen Anforderungen sind dementsprechend einfach umzusetzen:

  • Neue Attribute miteinander kombinieren (beispielsweise rel=“no follow sponsored“ oder rel=“no follow ugc“)
  • Für gesponserte Links „nofollow“ oder „sponsored“ Attribute oder eine Kombination aus beidem nutzen
  • Bisherige geponserte oder Werbe-Links mit „no follow“ können bestehen bleiben, zukünftige sollten besser genauer gekennzeichnet werden

Da Google keine direkten Handlungsanweisungen gibt, wie mit den Neuerungen umzugehen ist, müssen Webmaster keine überstürzten Änderungen vornehmen.

Abstrafungen sind dementsprechend nicht zu befürchten, aber das Markieren von „ugc“ und „sponsored“ in Eigeninitiative könnte zu einem verbesserten Ranking führen, auch wenn Google selbst das nicht bestätigt.