Google Suchmaschine Screenshot
Google Suchmaschine

Seiten, die Inhalte aufweisen, die bereits andere Seiten veröffentlicht haben, werden von Google abgestraft, da diese in Googles „Augen“ nur Kopien sind und somit keinen Mehrwert bieten.
Es gibt aber Möglichkeiten richtig mit doppeltem Inhalt (Duplicate-Content) umzugehen und einer Bestrafung zu entgehen.

Der Canonical-Tag

Um Webseiten mit doppeltem Content richtig auszuzeichnen, verwendet man den Canonical-Tag. Innerhalb des Heads der Kopie gibt man anhand eines Link-Elementes mit dem Attribut rel=“canonical“ an, dass es sich um eine duplizierte Seite handelt und verweist damit auf das Original (wird auch als die kanonische Seite bezeichnet).

Crawler ignorieren diese Seiten dann und indexieren lediglich die kanonische Seite. Der Vorteil dabei: Positive Eigenschaften der Kopie, wie beispielsweise der PageRank, kommen der Original-Seite zu Gute.

Canonical-Tag richtig einsetzen

Im Head der Kopie einfügen:

<link rel=”canonical” href=”https://www.domain.de/original”/>

Wichtig:

  • Nur einen Canonical-Tag pro Seite verwenden
  • Den Canonical-Tag nur verwenden wenn der Inhalt tatsächlich sehr identisch ist
  • Die Kopie muss für Crawler zugänglich sein
  • Seiten mit Canonical-Tags erscheinen nicht in den SERPs

Bilder werden nicht beachtet!

Möchte man die Indexierung von Bildern vermeiden, muss man auf andere Methoden zurückgreifen, da der Canonical-Tag hier nicht wirkt. Sinnvoll ist es daher die Bilder in verschiedene Verzeichnisse zu legen.

Beispiel:

Verzeichnis-Originalbilder
Verzeichnis-Kopiebilder

Wurden die Bilder noch nicht indexiert, kann man in der robots.txt dann das Crawlen des gesamten Verzeichnisses verbieten.

Der passende Code für den Google-Bilder Bot wäre:

User-Agent: Googlebot-Image 
Disallow: /Verzeichnis-Kopiebilder/

Möchtest du mehr über das Erstellen der Robots-Datei erfahren, dann haben wir hier den passenden Artikel für dich: Robots.txt richtig einrichten