• Skip to primary navigation
  • Skip to content
  • Skip to primary sidebar
  • Skip to footer
  • Über uns
  • Werben
  • renditemacher.de
  • hoeschl.net
  • Mail-Icon
  • RSS-Icon
  • G+-Icon
  • Twitter-Icon
  • Facebook-Icon

Blog für den Onlinehandel

das Zentralorgan der deutschen Onlinehändler-Szene

Alle Amazon Trainings kostenlos
  • News & Artikel
  • Know how & kostenlose Downloads
  • Händler-Tools
  • Verkaufsbörse
  • Webinare
Aktuelle Seite: Startseite / Marketing / Die neue Google Search Console: Mehr Daten, neue Funktionen, alles gut?
0

Die neue Google Search Console: Mehr Daten, neue Funktionen, alles gut?

14. Juni 2018 von Markus Hövener

Dieser Artikel wird Ihnen vorgestellt von:- Anzeige -

Logo plentymarketsplentymarkets: Das E-Commerce ERP-System, das Warenwirtschaft, Shopsystem , 40+ Online-Märkte und den Point of Sale für dich verbindet und deinen gesamten Versandhandel automatisiert.

Jetzt informieren: www.plentymarkets.com

Die neue Google Search Console bietet nicht einfach nur ein neues Design, sondern viele neue Funktionen, die ganz anders sind als bei der alten Version. Die Umstellung wird nicht einfach – verspricht aber viele neue Einblicke in Crawling und Indexierung.

Die Google Search Console ist nach wie vor eines der wichtigsten SEO-Tools – und auch die einzige Quelle vieler Daten. Allerdings ist die Google Search Console (ehemals Google Webmaster Tools) auch schon etwas in die Jahre gekommen.

Seit dem 8. Januar 2018 (siehe webmasters.googleblog.com/2018/01/introducing-new-search-console.html) gibt es nun offiziell eine neue Version, die 2017 schon in einer geschlossenen Beta-Phase getestet wurde. Die neue Search Console unterscheidet sich in Design und Struktur deutlich von der alten Version. Allerdings sind derzeit noch nicht alle Funktionen des alten Tools in der neuen Variante verfügbar. Laut Google wird es durchaus noch bis Ende 2018 dauern, bis der Stand vergleichbar ist. Bis dahin sollen beide Versionen parallel genutzt werden können. Um jeweils zur anderen Variante zu wechseln, klickt man einfach auf „Jetzt die neue Search Console testen“ (alt) bzw. „zur alten Version wechseln“ (neu).

Viele wichtige Funktionen wie „Abruf wie durch Googlebot“ fehlen noch, sodass ein ausschließlicher Wechsel zur neuen Version ohnehin noch nicht möglich ist. Durch den geringen Funktionsumfang wirkt die neue Version noch relativ leer. Insgesamt wurden Funktionen nicht einfach nur verschoben oder umbenannt, sondern ganz anders umgesetzt. Einzelne Reports wie „Crawling-Fehler“ aus der alten Search Console gibt es nicht mehr; diese wurden in den großen Report „Indexabdeckung“ integriert.

Leistung

Ein wichtiger Punkt ist sicherlich die Funktion „Leistung“, die der vorherigen „Suchanalyse“ entspricht. Hier findet sich auch die wichtigste Neuerung: Statt der stets monierten 90 Tage gibt es nun Daten für die letzten 16 Monate. Somit ist es jetzt endlich möglich, Saisonalitäten abzudecken, indem man z. B. die letzten 90 Tage mit denen aus dem Vorjahr vergleichen kann. Hierfür wurden auch schon Filter vordefiniert, z. B. „Letzte 3 Monate mit dem entsprechenden Zeitraum im Vorjahr vergleichen“, was sehr praktisch ist. Man kann auch beliebige Zeiträume miteinander vergleichen. Das ging vorher auch schon, war aber bei 90 Tagen nur wenig sinnvoll. Mit der neuen Datenfülle haben die Vergleichsfunktionen somit an Bedeutung hinzugewonnen.

Geblieben ist allerdings ein bekannter Flaschenhals. Es gibt nach wie vor nur 1.000 Suchanfragen oder Seiten. Mehr Informationen sind bestenfalls über Tricks erreichbar (mehrere Propertys anlegen und diese später kombinieren). Mehr Dimensionen gibt es auch nicht: Mit Klicks, Impressionen, CTR und Position ist man hier aber auch sehr gut bedient.

Interessant ist, dass derzeit noch ein wichtiger Filter aus der alten Suchanalyse fehlt. Über den Filter „Darstellung in der Suche“ konnten gezielt „Ergebnisse mit Rich Media“ gesucht werden. So war es z. B. möglich, Rich Snippets zu finden bzw. die Frage zu beantworten, für welche Seiten und Suchanfragen man über Rich Snippets verfügt.

Praktisch ist auch der neue Filter in der Suchanalyse (siehe Abbildung 1). Gefiltert werden kann nach allen Metriken (Suchanfrage, Seite, Klicks, Impressionen, CTR, Position) – und das in beliebiger Kombination. So kann man schnell Seiten finden, die ein hohes Ranking, aber eine niedrige Klickrate haben.

Abb. 1: Über den neuen Filter können gezielt bestimmte Suchanfragen oder Seiten identifiziert werden.

Indexabdeckung

Ebenfalls spannend ist der neue Report namens „Indexabdeckung“. Zugleich findet sich hier auch die größte Änderung, da viele alte Reports in einem neuen Report zusammenkommen. Außerdem gibt es jetzt Einblicke in den Crawling- und Indexierungsprozess, die es so vorher gar nicht gab.

Die Indexabdeckung ist leider etwas unglücklich benannt, weil es dort nicht nur um den Index geht, sondern auch um das Crawling. Der Report beantwortet prinzipiell aber eher die Frage nach dem Index: Welche Seiten sind im Index? Und welche nicht?

Insgesamt funktioniert der neue Report am besten im Zusammenspiel mit XML-Sitemaps. Das ist hier also eine wichtige Grundvoraussetzung. Unternehmen sollten sicherstellen, dass diese stets aktuell und auch korrekt sind. In der Indexabdeckung kann oben immer zwischen „eingereichte Seiten“ (alle Seiten, die in den XML-Sitemaps genannt werden) und „alle bekannten Seiten“ (alle Seiten, die Google irgendwie gefunden hat) gefiltert werden.

Die Indexabdeckung hat oben immer vier Bereiche, die man auswählen und miteinander kombinieren kann (auch wenn das nicht unbedingt intuitiv umgesetzt ist). Nach der Auswahl von z. B. „Gültig“ werden dann im unteren Bereich die unterschiedlichen Fehler- oder Hinweis-Kategorien angezeigt (siehe Abbildung 2). Wenn man auf eine solche Kategorie klickt, erhält man die jeweiligen URLs – maximal aber nur 1.000 Stück. In der Regel reicht das natürlich vollkommen aus, um systematische Fehler zu finden. Nur bei sehr großen Websites wären mehr Daten sinnvoll – aber auch dann könnte man das Daten-Limit überschreiten, indem man mehrere Propertys anlegt und die Daten dann miteinander kombiniert.

Abb. 2: Der Report „Indexabdeckung“ liefert viele Informationen aus Crawling und Indexierung.

Spannend sind die unterschiedlichen Fehler- und Hinweis-Kategorien auf jeden Fall, weil sie deutlich mehr Fälle als in der alten Google Search Console abdecken, z. B.

  • Indexiert, nicht in Sitemap gesendet (Seite wurde indexiert, ist in der XML-Sitemap aber nicht zu finden)
  • Seite wegen rechtlicher Beschwerde entfernt
  • Duplizierte Nicht-HTML-Seite (z. B. PDF-Datei und HTML-Datei haben denselben Inhalt, aber kein Canonical Tag)
  • Duplikat, aber ohne kanonisches Tag (die Seite ist eine Dublette, verfügt aber über kein Canonical Tag)
  • …

Alle unterschiedlichen Fälle kann man hier nachlesen: support.google.com/webmasters/answer/7440203. Es ist zu empfehlen, diese unterschiedlichen Fälle und deren Lösungswege zu kennen. So klingen z. B. die beiden Kategorien „Gecrawlt – derzeit nicht indexiert“ und „Gefunden – zurzeit nicht indexiert“ sehr ähnlich. Damit sind aber gänzlich andere Fälle gemeint.

Auch hier gilt wieder: Das Mehr an Informationen sorgt nicht unbedingt dafür, dass man daraus auch Kapital schlagen kann. Das liegt natürlich zum einen am Kenntnisstand des jeweiligen Nutzers, aber auch daran, dass die Behebung vieler Fehler nicht zu einer Ranking-Verbesserung führen wird. So sollte man hier vorsichtig sein und nicht angesichts der vielen Hinweise, die nahezu jede Website generiert, in blinden Aktionismus verfallen. Einige Hinweise sind ernst zu nehmen, einige sind aber auch eher akademischer Natur. Google hat viele Aspekte auch bislang schon gut hinter den Kulissen geregelt. Nur weil man jetzt mehr Einsicht bekommt, bedeutet das nicht, dass Google hier auch oft mit suboptimalen Websites perfekt klarkommt.

Dennoch: Für eine technische Analyse der Website ist der neue Report „Indexabdeckung“ Gold wert. Die Beschränkung auf 1.000 Ergebnisse ist dabei nur eine kleine Einschränkung, denn systematische Fehler sollten natürlich trotzdem sichtbar werden.

Prozessorientiert

Vor allem bei der „Indexabdeckung“ sieht man: Die Google Search Console ist prozessorientierter geworden. Man kann Probleme entdecken, tiefere Daten abrufen und dann in der Regel auch direkt damit etwas machen. Wer wie in Abbildung 3 eine URL anklickt, erhält rechts direkt relevante Aktionen angezeigt – was extrem praktisch ist.

Abb. 3: Die Search Console bietet zu jeder URL sinnvolle Prozessschritte an, um die Diagnose zu vertiefen.

Ebenfalls sinnvoll kann die „Teilen“-Funktion sein (siehe Abbildung 4). So kann man einen bestimmten Report bzw. den Zugriff darauf schnell per E-Mail verschicken, ohne dass der Empfänger einen Zugriff auf das Search-Console-Konto haben muss. Komplizierte Nutzerfreigaben braucht es also nicht – vorausgesetzt wird nur, dass der Empfänger auch ein Google-Konto hat.

Abb. 4: Beliebige Reports können per simplen Link weitergegeben werden.

Noch mehr Reports

Wie gesagt, befindet sich die Google Search Console noch in einem unfertigen Zustand. Wichtige Reports und Einstellungen fehlen noch.

Interessant ist aber, dass mit „AMP“ und „Job Posting“ schon zwei Reports verfügbar sind, die für die Mehrheit der Nutzer gar nicht so wichtig sind. Hier zeigt sich aber, welche Themen Google derzeit besetzen möchte. Es wäre natürlich fatal, Website-Betreiber zu motivieren, Job-Angebote mit Markup (schema.org/JobPosting) zu versehen – und dann dafür keine Reports anzubieten. Auch erzeugen solche Reports eine gewisse Sog-Wirkung, da sich Unternehmen dann fragen, ob sie diese Funktionen bereits nutzen oder das tun sollten.

Fazit

Die neue Google Search Console erfordert definitiv eine Umgewöhnung. Dieses Update ist nicht einfach nur mit den vorherigen Updates vergleichbar, bei denen der Name geändert wurde oder sich Menü-Funktionen verschoben haben. Derzeit wird man allerdings beide Versionen parallel nutzen müssen, da die neue Search Console nur über einen Teil der Funktionen verfügt. Es bleibt also spannend, den weiteren Verlauf zu verfolgen, um so vielleicht noch weitere, ganz neue Funktionen in Aktion zu sehen.

Dieser Beitrag ist in Ausgabe #71 des Magazins für SEO, SEA und E-Commerce „suchradar“erschienen. Die gesamte Ausgabe #71 des suchradars mit dem Fokusthema „Conversion-Rate-Optimierung: Tipps und Strategien für umsatzstarke Websites“ kann unter www.suchradar.de kostenlos als PDF-Version heruntergeladen werden!

  • teilen  
  • twittern  
  • teilen 
  • teilen  
  • mitteilen 
  • E-Mail 
  • drucken 
1 Star2 Stars3 Stars4 Stars5 Stars (Noch keine Bewertungen)
Lädt...

Auch interessant

  • Warum negative Kommentare positiv für die Performance Deiner Facebook Werbeanzeige sein können
  • Amazon Advertising führt Biet-Dynamiken ein
  • SEO-Text – oder: Die Rolle von Content bei der Suchmaschinenoptimierung
  • Wie ebay wieder Anschluss finden möchte

Kategorie: Marketing Stichworte: Google, Marketing, SEO

Reader Interactions

Haupt-Sidebar (Primary)

Newsletter abonnieren

Über 7.000 Newsletter-Abonnenten erhalten bei neuen Artikeln eine kurze Infos ins Postfach. Kostenlos, jederzeit kündbar. Nutzen auch Sie diesen Infovorteil!

Keine Datenweitergabe!

Unsere Sponsoren

Logo Händlerbund

Logo Cateno

Logo Actindo

Logo Der Grüne Punkt

Logo Lizenzero

Logo Plantymarkets

Logo Magento-Agentur CYBERDAY

Logo shopware

Beliebteste Artikel

  • Diskussionsbeitrag: Erstickt Amazon an sich selbst?
  • Einfache Kniffe um den Preis kleiner erscheinen zu lassen
  • Einspruch: Warum Amazon - trotz allem - für Seller die richtige Wahl ist
  • Podcast myToys-Marktplatz: 150 Händler erreichen die Zielgruppe „Familie“ – unter dem Radar
  • Hermes und Alibaba - tun sie's? Oder nicht?
  • Online Shops für eBikes, Fahrräder, Akkutechnik und Zubehör zu verkaufen

Empfehlungen

Banner Händler in Schwierigkeiten
Alle Amazon Trainings kostenlos

Neue Kommentare

  • Alex bei Einspruch: Warum Amazon – trotz allem – für Seller die richtige Wahl ist
  • Carl Otto bei Einspruch: Warum Amazon – trotz allem – für Seller die richtige Wahl ist
  • Falk Steimmig bei Diskussionsbeitrag: Erstickt Amazon an sich selbst?
  • Franz bei Diskussionsbeitrag: Erstickt Amazon an sich selbst?
  • Gisela Schmidt bei Diskussionsbeitrag: Erstickt Amazon an sich selbst?
  • Jürgen Dell bei International Marketplace Network (IMN): Gemeinsam gegen Amazon und ebay

Hostingsponsor

Logo von Estugo

Footer

Newsletter abonnieren

Bei neuen Artikeln eine kurze Info ins Postfach, kostenlos, jederzeit kündbar. Keine Datenweitergabe!

Wichtige Links

  • Datenschutz
  • Impressum
  • Sponsoren
  • Werben
  • Archiv

Schlagwörter

Abmahnung Amazon Amazon Förderprogramm amazon marketplace Businessplanung Controlling Datenschutz E-Commerce Analyse ebay Facebook Geschäftsklima Google Gütesiegel Internationalisierung Know-how Konversionsrate Kundenbindung Local Heroes Logistik Magento Marktanalyse Marktplatz Multi Channel Open Source Shopsysteme Payment Preisportale Pressemitteilungen Presseschau Produktdarstellung Recht SEO Shop-Marketing shopanbieter to go Shop Software Shopsuche Social Commerce Stationärgeschäft Studien Umfragen Usability Veranstaltungen Verkaufsbörse Weihnachtsgeschäft Weiterbildung Zukunft des Handels

Diese Website nutzt Cookies. Bitte treffen Sie hier Ihre Auswahl ODER nutzen Sie den Button, um zum Setzen der aller Cookies.

Unsere Datenschutzbelehrung finden Sie hier.

Schriftzug Cookies und Datenschutz
Powered by GDPR plugin
Datenschutz: Cookies

Diese Website nutzt Cookies zur Realisierung von technischen Basisfunktionen sowie für Drittanbieterdienste wie Google Analytics.

Cookies sind kleine Textdateien, die vom Browser auf Ihrem Computer gespeichert und auch wieder ausgelesen werden.

Darüber können Funktionen wie beispielsweise die Wiedererkennung von Besuchern realisiert werden, Ihre persönlichen Einstellungen gehalten sowie statistische Daten gewonnen werden, wie beispielsweise Besucherströme, Lesegewohnheiten, Abrufzahlen von Artikeln.

Welche Cookies technisch notwendig sind und welche Cookies Sie an- oder abschalten können, sehen Sie hier.

Technisch notwendige Cookies

Technisch notwendige Cookies sollten immer aktiviert werden, damit die Website vernünftig funktioniert. So werden über solche Cookies Ihre persönliche Einstellungen - beispielsweise beim Kommentieren - gespeichert.

Daneben nutzen wir auch die Möglichkeit, Inhalte an die VG Wort zu melden, um so unseren Autoren eine (geringe) Einnahme über die Verwertungsgesellschaft zu bieten. IP-Adressen werden dabei von der VG Wort nur in anonymisierter Form verarbeitet. Die Datenschutzbelehrung der VG Wort finden Sie hier.

 

Wenn Sie die technisch notwendigen Cookies deaktivieren, können persönliche Einstellungen - beispielsweise beim Kommentieren - nicht gespeichert werden. Zudem werden Sie laufend erneut gebeten, Ihre Cookie-Einstellungen vorzunehmen und unseren Autoren entgehen u.U. Einnahmen durch die VG Wort..

Cookies von Drittanbietern

Wir nutzen Google Analytics, um Informationen zur Nutzung unserer Webangebote zu sammeln. Dies dient dazu, unsere für Sie kostenlosen Services laufend zu verbessern. Die Datenschutzbelehrung von Google finden Sie hier.

Bitte helfen Sie uns dabei, indem Sie die für diese Services notwendigen Cookies aktivieren. Danke!

Bitte aktivieren Sie die technisch notwendigen Cookies!