Am Montag veröffentlichte das Google Webmaster-Blog einen Beitrag, der Wellen schlägt. Darin werden die Vor- und Nachteile von (dem Aussehen nach) statischen gegenüber dynamischen URLs diskutiert. Und wer bislang davon ausging, dass sich dynamische URLs für das Crawling negativ seien, dürfte drastisch überrascht sein:
Wir treffen immer wieder auf Webmaster, die – genau wie unsere Freundin – glauben, dass statische oder statisch aussehende URLs einen Vorteil für das Indexieren und Ranken ihrer Sites bieten. Dies basiert auf der Überzeugung, dass Suchmaschinen Probleme beim Crawlen und Analysieren von URLs haben, wenn diese Session-IDs oder Source-Tracker enthalten. Tatsächlich jedoch haben wir bei Google zu beidem Fortschritte gemacht. Während statische URLs bezüglich der Klickthrough-Raten einen kleinen Vorteil haben könnten, weil Nutzer die URLs sehr einfach lesen können, bringt die Entscheidung für eine datenbankgestützte Website keinen nennenswerten Nachteil für die Indexierung und das Ranking. Den Suchmaschinen sollten lieber dynamische URLs angeboten werden, anstatt Parameter zu verstecken, um URLs statisch aussehen zu lassen.*
Diese Aussage unterstreicht der Autor weiter unten im Beitrag noch einmal:
Bedeutet das, dass ich das Rewriting dynamischer URLs komplett vermeiden soll? Das empfehlen wir, außer wenn das Rewriting nur dazu eingesetzt wird, unnötige Parameter zu entfernen oder wenn Sie sehr geschickt darin sind, alle Parameter zu entfernen, die Probleme machen könnten.*
Alles neu, alles anders? Worum geht es Google?
Es geht darum, dass laut Google manche durch Rewriting erstellte URLs mehr Probleme machen, als rein dynamische URLs, die erkennbar sinnvolle Zusatzinformationen enthalten. Der Blogbeitrag listet Beispiele:
- www.example.com/article/bin/answer.foo?language=en&answer=3&sid=98971298178906&query=URL
macht Google keine Probleme, dafür bietet die URL aber hilfreiche Zusatzinformationen, wie beispielsweise die Sprache. Die Session-ID macht Google keine Probleme, weil sie als solche erkannt wird. - www.example.com/article/bin/answer.foo/en/3/98971298178906/URL (als Beispiel eines Rewritings der obigen dynamischen URL)
dagegen könnte zu Indexierungsproblemen führen, weil die Suchmaschine so evtl. dieselbe Seite unter verschiedenen URLs indexiert. (Schuld ist die Integration der Session-ID in die "statische" URL)
Bauen wir nun alle Shops wieder um? SEO-Profi Markus Hövener von Bloofusion glättet in seinem Blog "Internetkapitäne" die Wellen:
Meiner Meinung nach bleibt alles beim Alten. Google hat prinzipiell eine schlüssige Argumentation, die aber etwas kurzsichtig und vor allem einseitig ist. Ja, bei der Nutzung statischer URLs vergebe ich die Möglichkeit, dass Google auf Basis der URL Rückschlüsse auf meine Site-Struktur ziehen kann. Ja, ich darf bei der Vergabe statischer URLs nicht patzen und muss das rigoros durchziehen.
Ich glaube aber nach wie vor, dass die Vorteile überwiegen – vor allem, wenn man es eben richtig macht.
Hauptargumente sind für ihn, dass "hübsche" URLs eine bessere Usability haben – sowohl für Nutzer der Site selbst, als auch für alle, die auf einzelne Seiten verlinken wollen. Außerdem gibt er zu bedenken, dass es nicht unbedingt im Interesse des Sitebesitzers sein muss, wenn Google allzu intime Kenntnisse der Sitestruktur hat: "Ich kann mir schon vorstellen, dass bestimmte Arten von URLs dann nicht mehr oder nicht mehr bis in die Tiefe gecrawlt werden."
Also was tun? Die eigenen Rewriting-URLs daraufhin untersuchen, ob sie – beispielsweise durch die Integration von Session-IDs – Indexierungs-Probleme verursachen können. Wenn ja, besteht Handlungsbedarf. Wenn nein, kann man sich getrost weiterhin seiner ’schönen‘ URLs erfreuen!
Herzlich aus Hürth
Nicola Straub
HP meint
Wenn man sich wirklich an die Empfehlung halten würde müsste man ja davon ausgehen das Google der einzige Suchdienst auf diesem Planeten ist und es auch auf absehbare Zeit hin bleiben wird.
Ich persönlich denke und hoffe das der momentane Zustand, nämlich der das es zumindest in Deutschland faktisch so wie oben beschrieben ist, nicht auf immer anhalten wird.
Insofern wäre es wohl ziemlich unvorteilhaft die Dinge ausschließlich für Google zu gestalten, vor allem wenn es gar keinen Vorteil erbringt auf dynamische URLs umzuschwenken.
Markus meint
daß Google Session IDs erkennt mag ja noch stimmen.
Ich habe die Erfahrung gemacht, daß der User, der zu einem Produkt oder Artikel verlinkt, die Sessions nicht löscht, sondern den Link aus der Browserzeile kopiert.
Durch die Rewriting URLs hat man ein eindeutige Verlinkung von anderen Seiten und außerdem die Keywords im Link.
Nico meint
Wenn ich mit SEO mein Geld verdienen würde, dann hätte ich auch so fadenscheinige Argumente gegen die Abschaffung von statischen URLS erfunden!
Mal ehrlich: Rewriting ist extrem kompliziert, verursacht auch Fehler und auf vielen Sites duplicate content und kostet eine Menge Geld! Es war nur eine Frage der Zeit, bis Google diese Regel abstellt! Endlich…
HP meint
Das URL Rewriting extrem teuer ist gehört defintiv ins Reich der Legenden. Moderne Syteme integrieren entsprechende Funktionalitäten.
Ob Google nun anders wertet oder nicht, eines dürfte klar sein. Der Webmaster der seine Webseite ordentlich aufstellt und dabei diverse Faktoren beachtet gibt sich Mühe, und das darf ruhig mit honoriert werden.
Wir haben eine Zeitlang einen eigenen recht großen Webkatalog gefahren (eigene Software, alles selbst erstellt) dort wurden solche Dinge beachtet.
Für unprofessionell erstellte Seiten gibt es zahlreiche Anhaltspunkte.
Beispiel : direkte Verlinkungen auf Werbelink der verschiedenen Affiliateplattformen. Wer sich die Mühe machte einen Relocator einzusetzen bekam keine Abwertung. Ist nicht schwer zu ralisieren, zeigt aber das sich der Webmaster Gedanken zu dem Thema gemacht hat. Solches zu honorieren ist sinnvoll denn es sagt etwas über die technische Qualität die Seite aus.
Wir hatten noch mehr solcher, aber auch anderer (Textgeichtung, etc.) Faktoren definiert, da kann man zwecks Rankingberechnung einen interessanten Mix zuammenstellen.
Ich persönlich würde Bewertungssysteme grundsätzlich mit solchen Faktoren anreichern. Btw., niemand weiß ob es nicht bereits solcherlei Algoritmen in den Rankingssystemen der großen Suchdienste gibt. Sinn würde es jedenfalls machen, und das ganz unabhängig von technischen Gegebenheiten wie der Kopierei von Weblinks mit SessionIDs.
Jeder sollte selbst wissen was Er tun möchte um Seine Webseite zu gestalten, sowohl unter visuellen als auch technischen Gesichtspunkten. Das betrifft auch solche Aspekte.