öffentlich
Redaktion Druckversion

Suchmaschinenoptimierung und Content Management Systeme (CMS)

4.583335
(12)
Beitrag bewerten
Kommentar schreiben
Stand: 21. Januar 2009

Regel Nr. 5: Alle Content-Seiten müssen durch Navigationslinks erreichbar sein

Ein klassischer Punkt der On-Site-Optimierung besteht darin, alle Seiten einer Website so zu verlinken, dass sie

  1. auch erreicht werden können und das

  2. auf möglichst kurzem Weg.

Der Grund: Wenn Google eine Website einliest, wandert der Bot dabei nur in eine bestimmte Tiefe. Und er folgt dabei nur den Links, die er findet, kommt also nur zu den Seiten, die auch tatsächlich verlinkt sind. Auch diesen Punkten muss ein CMS angemessen Rechnung tragen.

Seitennavigation (1, 2, 3 ...) oder das "Punkt-Punkt-Punkt-Problem"

Es gibt unzählige Beispiele für das "Punkt-Punkt-Punkt-Problem" - ich bin mir sicher, dass Sie selbst schon darüber gestolpert sind. Mir fällt es besonders oft bei Foren-Software auf:

Um Platz zu sparen, programmieren Entwickler die Funktion zum "Weiterblättern" gerne so, dass nur die vorderen und hinteren Seiten klickbar sind, dazwischen stehen drei Punkte: Wenn ich auf Seite 4 der Übersicht bin, sehen die "Blätter"-Links dann etwa so aus: Anfang ... 3 4 5 ... Ende.

Besser ist es, sämtliche Seitennummern komplett darzustellen, auch wenn es viel Platz wegnimmt. Wenn das in der Blätterfunktion selbst nicht geht, dann müssen die Links eben an anderer Stelle auf der Seite untergebracht werden. Dann gibt es einen Link für den Menschen und einen für den Bot, etwa so:

Bild vergrößernZwei Link-Wege zu den Rezensionen - einer zum Blättern, einer zum Einlesen durch die Suchmaschine

Diese Form der Komplettverlinkung der Unter-, Foren- oder Katalogseiten sollte das CMS automatisch anbieten.

Drei Klicks und Ende! Oder: das "Seite zurück"-/"Seite vor"-Problem

Genauso schlimm wie das Punkt-Punkt-Punkt-Problem sind Blätterfunktionen, bei denen ich nur dann auf Seite 100 gelange, wenn ich hundertmal auf einen "Weiter"- oder "nächste-Seite"-Link klicke. So etwas sieht man sowohl bei Archivseiten als auch in Produktkatalogen.

Auch das ist tödlich für die Vererbung von Linkpower. Und nicht nur das. Es ist sehr fraglich, ob die Suchmaschine bis zu 100 Seiten durchklickt.

Suchmaschinen dringen unterschiedlich tief in "Websites" ein: Das hängt davon ab, für wie gut sie die jeweilige Site halten. Hundert oder auch nur zwanzig "Ebenen" sind es aber auch bei gut verlinkten Websites nicht! Deshalb liest die Suchmaschine bei der gerade beschriebenen "Blätter-Variante" die Artikel, die sich in diesem Archiv auf den hinteren Seiten befinden, nicht bzw. nicht wieder ein.

Dadurch, dass keine direkten Links mehr auf die älteren, früh angelegten Seiten zeigen, fliegen diese nach und nach aus dem Index oder werden nicht mehr gut gerankt. Schade - das kostet erneut Besucher.

Ein Lösungsansatz für Seiten mit sehr vielen Inhalten besteht darin, zusätzlich zu der Vor-/Zurück-Navigation auf der Archivseite auch noch eine Seitenennavigation zu verwenden.

Das Layout kann man ja so gestalten, dass diese nicht mit der Vor-/Zurück-Navigation kollidiert: Man kann sie zum Beispiel einfach etwas weiter unten einbinden. Das würde sicherstellen, dass die Suchmaschine direkt von der Übersichtsseite aus auch noch auf die Seite 100 kommt.

Wenn Ihre Archivseiten schon 1.000 oder mehr Seiten haben, dann könnten Sie entweder mehr Einträge pro Seite anzeigen (50-100) oder eine zweistufige Seitenzahlanzeige implementieren (Seite 1-100, 101-200, 301-400 ...) und von dort aus auf die einzelnen Unterseiten verlinken.

Ein kluges CMS, das sich an die Prinzipien der Suchmaschinenoptimierung hält, vollzieht diese Schritte vollautomatisch.

Cloaking von Seitennavigation

Grundsätzlich ist es laut Richtlinie verboten, den Suchmaschinen auf einer Webseite etwas anderes anzuzeigen als einem Menschen.

Dieses Verbot ist aber flexibel zu sehen. Das Einlesen einer Seite, die Menschen einen harmlosen Text über das Häkeln anzeigt, der Suchmaschine aber einen Text zum Thema Potenzpillen, wollen diese definitiv verhindern. Es ist aber durchaus zu vertreten, wenn auf einer Seite die gleichen Inhalte nur anders strukturiert angezeigt werden.

Sie könnten also einem Menschen pro Seite zehn und der Suchmaschine hundert oder mehr Links auf Archivartikel anzeigen. Dadurch manipulieren Sie die Suchmaschine ja nicht. Ich würde sogar ganz im Gegenteil argumentieren: Sie helfen nur dabei, auch die Inhalte auf den hinteren Seiten besser auffindbar zu machen, ohne die Usability für Ihre Besucher zu verschlechtern.

Trotzdem würde ich diese Technik nur dann empfehlen, wenn Sie über sehr viele Unterseiten verfügen (zehntausende von Artikeln/Produkten). Auch hier ist es natürlich besser, wenn eine entsprechende Konfigurationsmöglichkeit von vornherein in das CMS eingebaut ist. Dazu muss das CMS lediglich auslesen, ob gerade ein normaler Besucher auf der Seite surft oder ob es der Google-Bot ist und dementsprechend die Inhalte zusammenbauen. Zur Sicherheit können Sie natürlich immer im Google Diskussionsforum für Webmaster nachfragen, ob Sie mit Ihrer Form des "Cloakings" gegen irgendwelche Richtlinien verstoßen.

Sitemaps

Sitemaps können bei dem Prozess der Auffindbarkeit von Unterseiten behilflich sein. Es ist jedoch immer besser, wenn die originale Navigation auf alle Seiten verlinkt, weil dann eben auch noch interne Linkpower vererbt wird. Wie Sitemaps aufgebaut sind, können Sie auf sitemaps.org nachlesen.

Ein Vorteil von Sitemaps besteht darin, dass man mit Hilfe der Google Webmaster Tools etwas besser überprüfen kann, wie viele Seiten vom Gesamtangebot schon indiziert sind; eine Information, die wenigstens für größere Seiten sehr nützlich ist. In der Praxis hat sich außerdem noch gezeigt, dass eine Sitemap dazu führen kann, dass neue Seiten innerhalb kürzester Zeit eingelesen werden. Für das Ranking bringen sie allerdings nichts. Sie können auch unter Umständen schaden, wenn sie Probleme bei internen Verlinkung "verstecken".

Das Generieren von Sitemaps sollte ein CMS jedoch trotzdem beherrschen.

Mitglied werden, Vorteile nutzen!

  • Sie können alles lesen und herunterladen: Beiträge, PDF-Dateien und Zusatzdateien (Checklisten, Vorlagen, Musterbriefe, Excel-Rechner u.v.a.m.)
  • Unsere Autoren beantworten Ihre Fragen

Downloads zu diesem Beitrag

Über den Autor:

bild117266

Saša Ebach ist freier Suchmaschinenoptimierer und Webentwickler mit der festen Meinung, dass Suchmaschinenoptimierung nicht "nachträglich" in eine Webanwendung eingebaut werden darf. In seiner Video-S ...

Newsletter abonnieren