Suchmaschinenoptimierung und Content Management Systeme (CMS)

Von: Saša Ebach
Stand: 21. Januar 2009
4.583335
(12)
Beitrag bewerten
Kommentar schreiben

Downloads zu diesem Beitrag

Über den Autor:

bild117266

Saša Ebach ist freier Suchmaschinenoptimierer und Webentwickler mit der festen Meinung, dass Suchmaschinenoptimierung nicht "nachträglich" in eine Webanwendung eingebaut werden darf. In seiner Video-S ...

Newsletter abonnieren

Kein Duplicate Content

Regel Nr. 4: Duplicate Content (doppelte Inhalte) vermeiden!

Suchmaschinen wollen unter allen Umständen verhindern, dass zwei identische oder auch fast identische Texte direkt untereinander als Treffer in den Ergebnissen auftauchen. Schließlich bringen sie den Suchenden nichts - stellen Sie sich vor, Sie klicken die ersten zehn Suchergebnisse an, und jeder Link führt zu dem gleichen Text in einem anderen Layout. Das fänden Sie bestimmt nicht sehr nützlich - und eine unnütze Suchmaschine ist eine tote Suchmaschine.

Das Problem wird in der Fachwelt auch gerne als "Duplicate Content" (DC) bezeichnet - doppelte oder duplizierte Inhalte. Diese Duplikate bereiten den Suchmaschinen seit jeher große Probleme. Diese müssen irgendwie entscheiden, welches von diesen Duplikaten tatsächlich das erste bzw. beste ist. Dabei ist es egal, ob eine komplette Seite oder nur ein Teilbereich doppelt ist. Man unterscheidet zwei Varianten.

Interner und externer Duplicate Content

Inhalt, der auf mehr als einer Domain oder Subdomain vorkommt, bezeichnet man als externen Duplicate Content.

Beispiel:

Die Pressemeldung zu meinem Artikel "Was kostet Suchmaschinenoptimierung?" findet sich

- vier Websites mit exakt dem gleichen Text.

Auch viele Onlineshops sind vom Problem "Duplicate Content" betroffen, da sie gerne standardisierte Produktbeschreibungen der Hersteller als 1:1-Kopie veröffentlichen. Dieselben Beschreibungen tauchen dann naturgemäß bei etlichen Mitbewerbershops auf. Google fragt sich in diesem Fall: "Welche Version ist jetzt die richtige?" und wird alle bis auf eine Website ausfiltern. Der ist dann sozusagen der glückliche Gewinner dieser Lotterie.

Für diesen Artikel betrifft uns der externe Duplicate Content nicht. Ob ich meine Inhalte anderen Websites zur Duplizierung überlasse, ist eher eine strategische Frage. Es kann dafür auch gute Gründe geben. Mit dem CMS hat das alles aber nichts zu tun.

Content Management Systeme sollten interne Duplikate vermeiden

Website-interner Duplicate Content, inhaltliche Duplikate auf einer Domain also, sind dagegen eine technische Frage und fallen in die Zuständigkeit des CMS-Entwicklers. Dieser muss möglichst dafür sorgen, dass eine Duplizierung von Inhalten technisch unmöglich ist. Wenn die Duplikate aus Usability-Gründen notwendig sind, muss er dafür sorgen, dass diese Seiten oder Bereiche der Website für die Suchmaschine unzugänglich sind. (Es gibt viele Gründe, um der leichteren Nutzbarkeit zuliebe doch Duplicate Content zuzulassen - z. B. Anreißerseiten, Kategorieübersichten oder Sortierungsmöglichkeiten.)

Beispiel:

Packen wir uns doch einmal an der eigenen Nase und schauen uns akademie.de an. Ein typischer Fehler: Die Startseite ist unter zwei Adressen erreichbar:

Rein technisch gesehen haben diese beiden Adressen nichts miteinander zu tun. Sie könnten zwei verschiedene Seiten enthalten. Vom Inhalt her sind sie aber identisch - klassischer interner Duplicate Content.

Dieser spezielle Fehler ist nicht unbedingt eine Katastrophe. Ein paar Probleme verursacht er aber schon. Das Größte ist das: Einige Webmaster, die auf die Startseite von akademie.de verlinken wollen, werden vorher auf den Button klicken und dann via Copy & Paste die URL mit /index.html benutzen. Andere verwenden bei der Verlinkung einfach nur http://www.akademie.de. Jegliche Linkpower wird damit auf diese beiden URLs verteilt. Außerdem könnte es sein, dass akademie.de deswegen bei einigen Begriffen ein schlechteres Ranking erzielt, als es möglich wäre.

Hier ein weiteres Beispiel dafür, was passieren kann, wenn URLs mit einer Zusatzfunktion (z. B. Blättern, Tracking usw.) in die Hände von anderen Webmastern fallen:

Bild vergrößernVerschenktes Ranking-Potenzial durch Duplikat-URLs

XXX und YYY sind Seitencodes für Artikel, die auch ohne diesen bzw. unter einer anderen URL gefunden werden können. Was dieser Screenshot demonstrieren soll, ist das typische Verhalten von Webmastern. Die wissen ja nicht, dass sie unterm Strich der Website bzw. deren Rankings möglicherweise schaden, wenn sie diese URLs verwenden.

Im Idealfall sind solche URLs einfach technisch unmöglich, weil das System sie einfach nirgendwo generiert. Dann könnte sich auch niemand - gewollt oder ungewollt - vertun. Damit wären wir wieder bei der Verantwortung der Programmierer. Das obere Beispiel zeigt schön, was passiert, wenn man Menschen ermöglicht, aus unserer Sicht das Falsche zu tun: Dann werden das auch passieren. Das Ergebnis ist eine Menge verschenktes Ranking-Potenzial durch ein technisches "Leck". (Weiter unten finden Sie eine mögliche Lösung für URLs mit "Zusatzfunktionen".)

Übrigens: Denken Sie bloß nicht, dass solche Fehler eine Ausnahme wären. Meine Erfahrung zeigt, dass diese Art von Problemen nicht etwa nur bei akademie.de zu finden ist, sondern bei fast allen großen Websites vorkommt. Sie können das sehr leicht selbst nachprüfen!

Was sind die Konsequenzen des Duplicate Content?

Das größte Problem bei Doubletten besteht darin, dass Google zu viele ähnliche und zu wenig "gute" Dokumente indiziert.

Google indiziert ohnehin nicht automatisch alle Seiten auf einer Website, sondern nur einen gewissen Teil, je nachdem wie hoch die Domainpopularität ist, also die Qualität und Anzahl der Links zur Domain. (Übrigens: Wenn Sie Ihre Domainpopularität steigern und so die Anzahl der indizierten Seiten generell nach oben treiben wollen, dann lesen Sie doch mal, wie Sie Links aufbauen können.)

Angenommen, Ihre Website enthält 1.000 URLs, tatsächlich aber nur 400 Artikel. Die restlichen Seiten sind Doubletten. Nehmen wir weiter an, dass Ihre Domainpopularität ausreicht, dass Google sich insgesamt 500 Seiten anschaut. Dabei erwischt Google 300 duplizierte und 200 gute Seiten. Obwohl Ihre Domainpopularität eigentlich ausreichen müsste, um alle 400 relevanten Seiten von Google einlesen zu lassen, werden nur die Hälfte aller wichtigen Seiten indiziert.

Die andere Hälfte der Seiten taucht in den Suchergebnissen gar nicht auf. Seiten mit einzigartigem Inhalt werden nicht in den Index aufgenommen und können so auch nicht gefunden werden. Es findet eine Art Verdrängung statt: Die gedoppelten Seiten verhindern eine Aufnahme der "guten" Seiten oder drücken diese aus dem Index.

Ein weiteres nicht weniger schlimmes Problem ist die ungewollte Zersplitterung von Linkpower, wie ich sie oben bereits am Beispiel von akademie.de gezeigt habe. Auch sie verhindert u. U. eine optimale Indizierung; viel schlimmer wiegt aber der direkte Rankingverlust.

Google sagt zwar immer wieder, dass sie das Problem "Duplicate Content" so gut wie im Griff hätten. Für die einfachen Fälle haben sie wahrscheinlich sogar Recht. Meine Erfahrung zeigt, insgesamt betrachtet, aber einfach etwas anderes.

Mitglied werden, Vorteile nutzen!

  • Sie können alles lesen und herunterladen: Beiträge, PDF-Dateien und Zusatzdateien (Checklisten, Vorlagen, Musterbriefe, Excel-Rechner u.v.a.m.)
  • Unsere Autoren beantworten Ihre Fragen
  • Sie bekommen erhebliche Rabatte auf unsere von Experten geleitete Online-Workshops
 

Online-Workshop-Kalender