• Skip to primary navigation
  • Skip to main content
  • Skip to primary sidebar
  • Skip to footer
  • Mail-Icon
  • RSS-Icon
  • G+-Icon
  • Twitter-Icon
  • Facebook-Icon

Blog für den Onlinehandel

das Zentralorgan der deutschen Onlinehändler-Szene

Deutschlands bekannteste Verkaufsbörse für Onlineshops
  • Home
  • Kostenlose Unternehmensbewertung
  • Verkaufsbörse
  • News & Artikel
  • Ratgeber
  • Über uns
Aktuelle Seite: Startseite / Marketing / Google findet jetzt dynamische URLs sexy
4

Google findet jetzt dynamische URLs sexy

25. September 2008 von Nicola Straub

Dieser Artikel wird Ihnen vorgestellt von: shopanbieter.de / Marcedo GmbH- Eigenanzeige -

Onlineshop verkaufenWir unterstützen E-Commerce-Unternehmer bei Kauf und Verkauf von Onlineshops, Amazon-Firmen und Internetportalen. Wir sind die Spezialisten dafür und vereinen langjährige E-Commerce-Erfahrung und das Know how aus über 65 Unternehmensverkäufen und -käufen. Wir beraten Sie im Vorfeld Ihrer Entscheidung zum Firmenverkauf, ermitteln den marktgängigen Wert eines Onlineshops und begleiten sie bis zum erfolgreichen Onlineshop Verkauf. Unser Honorar ist zu 100% erfolgsabhängig.

Jetzt informieren: Onlineshop verkaufen

Am Montag veröffentlichte das Google Webmaster-Blog einen Beitrag, der Wellen schlägt. Darin werden die Vor- und Nachteile von (dem Aussehen nach) statischen gegenüber dynamischen URLs diskutiert. Und wer bislang davon ausging, dass sich dynamische URLs für das Crawling negativ seien, dürfte drastisch überrascht sein:

Wir treffen immer wieder auf Webmaster, die – genau wie unsere Freundin – glauben, dass statische oder statisch aussehende URLs einen Vorteil für das Indexieren und Ranken ihrer Sites bieten. Dies basiert auf der Überzeugung, dass Suchmaschinen Probleme beim Crawlen und Analysieren von URLs haben, wenn diese Session-IDs oder Source-Tracker enthalten. Tatsächlich jedoch haben wir bei Google zu beidem Fortschritte gemacht. Während statische URLs bezüglich der Klickthrough-Raten einen kleinen Vorteil haben könnten, weil Nutzer die URLs sehr einfach lesen können, bringt die Entscheidung für eine datenbankgestützte Website keinen nennenswerten Nachteil für die Indexierung und das Ranking. Den Suchmaschinen sollten lieber dynamische URLs angeboten werden, anstatt Parameter zu verstecken, um URLs statisch aussehen zu lassen.*

Diese Aussage unterstreicht der Autor weiter unten im Beitrag noch einmal:

Bedeutet das, dass ich das Rewriting dynamischer URLs komplett vermeiden soll? Das empfehlen wir, außer wenn das Rewriting nur dazu eingesetzt wird, unnötige Parameter zu entfernen oder wenn Sie sehr geschickt darin sind, alle Parameter zu entfernen, die Probleme machen könnten.*

Alles neu, alles anders? Worum geht es Google?

Es geht darum, dass laut Google manche durch Rewriting erstellte URLs mehr Probleme machen, als rein dynamische URLs, die erkennbar sinnvolle Zusatzinformationen enthalten. Der Blogbeitrag listet Beispiele:

  • www.example.com/article/bin/answer.foo?language=en&answer=3&sid=98971298178906&query=URL
    macht Google keine Probleme, dafür bietet die URL aber hilfreiche Zusatzinformationen, wie beispielsweise die Sprache. Die Session-ID macht Google keine Probleme, weil sie als solche erkannt wird.
  • www.example.com/article/bin/answer.foo/en/3/98971298178906/URL (als Beispiel eines Rewritings der obigen dynamischen URL)
    dagegen könnte zu Indexierungsproblemen führen, weil die Suchmaschine so evtl. dieselbe Seite unter verschiedenen URLs indexiert. (Schuld ist die Integration der Session-ID in die "statische" URL)

Bauen wir nun alle Shops wieder um? SEO-Profi Markus Hövener von Bloofusion glättet in seinem Blog "Internetkapitäne" die Wellen:

Meiner Meinung nach bleibt alles beim Alten. Google hat prinzipiell eine schlüssige Argumentation, die aber etwas kurzsichtig und vor allem einseitig ist. Ja, bei der Nutzung statischer URLs vergebe ich die Möglichkeit, dass Google auf Basis der URL Rückschlüsse auf meine Site-Struktur ziehen kann. Ja, ich darf bei der Vergabe statischer URLs nicht patzen und muss das rigoros durchziehen.

Ich glaube aber nach wie vor, dass die Vorteile überwiegen – vor allem, wenn man es eben richtig macht.

Hauptargumente sind für ihn, dass "hübsche" URLs eine bessere Usability haben – sowohl für Nutzer der Site selbst, als auch für alle, die auf einzelne Seiten verlinken wollen. Außerdem gibt er zu bedenken, dass es nicht unbedingt im Interesse des Sitebesitzers sein muss, wenn Google allzu intime Kenntnisse der Sitestruktur hat: "Ich kann mir schon vorstellen, dass bestimmte Arten von URLs dann nicht mehr oder nicht mehr bis in die Tiefe gecrawlt werden."

Also was tun? Die eigenen Rewriting-URLs daraufhin untersuchen, ob sie – beispielsweise durch die Integration von Session-IDs – Indexierungs-Probleme verursachen können. Wenn ja, besteht Handlungsbedarf. Wenn nein, kann man sich getrost weiterhin seiner ’schönen‘ URLs erfreuen!

Herzlich aus Hürth
Nicola Straub

*eigene Übersetzung

  • teilen  
  • twittern 
  • teilen 
  • teilen 
  • mitteilen 
  • E-Mail 
  • drucken 
1 Star2 Stars3 Stars4 Stars5 Stars (Noch keine Bewertungen)
Lädt...

Auch interessant

  • SEO-Text – oder: Die Rolle von Content bei der Suchmaschinenoptimierung
  • 6 Tipps für mehr Nutzer im eigenen Online-Shop
  • Die neue Google Search Console: Mehr Daten, neue Funktionen, alles gut?
  • SEO-Tipps für Online-Händler: So klappt das mit mehr organischem Traffic

Kategorie: Marketing Stichworte: SEO

Reader Interactions

Kommentare

  1. HP meint

    29. September 2008 um 15:03

    Wenn man sich wirklich an die Empfehlung halten würde müsste man ja davon ausgehen das Google der einzige Suchdienst auf diesem Planeten ist und es auch auf absehbare Zeit hin bleiben wird.

    Ich persönlich denke und hoffe das der momentane Zustand, nämlich der das es zumindest in Deutschland faktisch so wie oben beschrieben ist, nicht auf immer anhalten wird.

    Insofern wäre es wohl ziemlich unvorteilhaft die Dinge ausschließlich für Google zu gestalten, vor allem wenn es gar keinen Vorteil erbringt auf dynamische URLs umzuschwenken.

  2. Markus meint

    30. September 2008 um 16:15

    daß Google Session IDs erkennt mag ja noch stimmen.

    Ich habe die Erfahrung gemacht, daß der User, der zu einem Produkt oder Artikel verlinkt, die Sessions nicht löscht, sondern den Link aus der Browserzeile kopiert.

    Durch die Rewriting URLs hat man ein eindeutige Verlinkung von anderen Seiten und außerdem die Keywords im Link.

  3. Nico meint

    7. November 2008 um 23:48

    Wenn ich mit SEO mein Geld verdienen würde, dann hätte ich auch so fadenscheinige Argumente gegen die Abschaffung von statischen URLS erfunden!
    Mal ehrlich: Rewriting ist extrem kompliziert, verursacht auch Fehler und auf vielen Sites duplicate content und kostet eine Menge Geld! Es war nur eine Frage der Zeit, bis Google diese Regel abstellt! Endlich…

  4. HP meint

    9. November 2008 um 16:47

    Das URL Rewriting extrem teuer ist gehört defintiv ins Reich der Legenden. Moderne Syteme integrieren entsprechende Funktionalitäten.

    Ob Google nun anders wertet oder nicht, eines dürfte klar sein. Der Webmaster der seine Webseite ordentlich aufstellt und dabei diverse Faktoren beachtet gibt sich Mühe, und das darf ruhig mit honoriert werden.

    Wir haben eine Zeitlang einen eigenen recht großen Webkatalog gefahren (eigene Software, alles selbst erstellt) dort wurden solche Dinge beachtet.
    Für unprofessionell erstellte Seiten gibt es zahlreiche Anhaltspunkte.
    Beispiel : direkte Verlinkungen auf Werbelink der verschiedenen Affiliateplattformen. Wer sich die Mühe machte einen Relocator einzusetzen bekam keine Abwertung. Ist nicht schwer zu ralisieren, zeigt aber das sich der Webmaster Gedanken zu dem Thema gemacht hat. Solches zu honorieren ist sinnvoll denn es sagt etwas über die technische Qualität die Seite aus.

    Wir hatten noch mehr solcher, aber auch anderer (Textgeichtung, etc.) Faktoren definiert, da kann man zwecks Rankingberechnung einen interessanten Mix zuammenstellen.

    Ich persönlich würde Bewertungssysteme grundsätzlich mit solchen Faktoren anreichern. Btw., niemand weiß ob es nicht bereits solcherlei Algoritmen in den Rankingssystemen der großen Suchdienste gibt. Sinn würde es jedenfalls machen, und das ganz unabhängig von technischen Gegebenheiten wie der Kopierei von Weblinks mit SessionIDs.

    Jeder sollte selbst wissen was Er tun möchte um Seine Webseite zu gestalten, sowohl unter visuellen als auch technischen Gesichtspunkten. Das betrifft auch solche Aspekte.

Haupt-Sidebar (Primary)

Newsletter abonnieren

Über 7.000 Newsletter-Abonnenten erhalten bei neuen Verkaufsofferten eine kurze Info ins Postfach. Kostenlos, jederzeit kündbar. Nutzen auch Sie diesen Infovorteil!

Keine Datenweitergabe!

Unsere Sponsoren

Unternehmen verkaufen

Hostingsponsor

Logo von Estugo

Footer

Newsletter abonnieren

Bei neuen Artikeln eine kurze Info ins Postfach, kostenlos, jederzeit kündbar. Keine Datenweitergabe!

Wichtige Links

  • Datenschutz
  • Impressum
  • Archiv

Schlagwörter

Abmahnung Amazon Amazon Förderprogramm amazon marketplace Businessplanung Controlling Datenschutz E-Commerce Analyse ebay Facebook Geschäftsklima Google Gütesiegel Internationalisierung Know-how Kundenbindung Local Heroes Logistik Magento Marktanalyse Marktplatz Marktplätze Multi Channel Open Source Shopsysteme Payment Preisportale Pressemitteilungen Presseschau Recht SEO Shop-Marketing shopanbieter to go Shop Software Shopsuche Social Commerce Sortimentssteuerung Stationärgeschäft Studien UdZ Usability Veranstaltungen Verkaufsbörse Weihnachtsgeschäft Weiterbildung Zukunft des Handels