Google Search Console wirf mir 2000+ blockierte Seiten Smartphone aus seit update auf 3.8. Jemand eine Idee?
Da sind gleich 2 Dinge in der URL die wir sperren, nämlich einerseits Hersteller IDs (also den Herstellerfilter) und zweitens Session IDs. Diese Sperrungen sind alles andere als neu, die haben schon seit Jahren so Bestand. Weil die Frage gleich kommt: Aber warum denn Hersteller? Es geht hier um einen Filter. Klar ist es so, dass man über die Auswahl in der Herstellerbox schnell zum Sortiment eines bestimmten Herstellers kommt, an einem Punkt. Es ist aber auch so, dass jeder dort gelistete Artikel ebenfalls über die Kategoriestruktur erreichbar sein wird, damit führt ein Weg zu jedem Artikel. Da die "Herstellerseiten" nur ziemlich wenig Suma förderlichen Inhalt enthalten, ist das auch richtig so. Wenn die Seiten nun blockiert sind, ist das nicht falsch. Es wäre vermutlich noch klüger ein noindex Header zu setzen, das müsste man aber im Shop nachrüsten, das hat der da noch nie gesetzt. Ich schau mal, ob sich dafür ein Platz auf der Agenda findet. Bis dahin gehören diese Seiten blockiert.
Nun, wie schon von 100Himmel geannt ist das seit GX 3.8 so. Der Filter war in den Versionen davor auch schon da und da wurde nix blockiert......warum meckert google erst jetzt ab Version 3.8?
Ich hab adhoc keine Erklärung, aber vielleicht hat sich auch der Crawler gerade mal wieder verändert.
na dann verändert er sich seit einem halben jahr......ständig ist seit Juli 2017 vermehrt dort irgenwas blockiert bei google search Ist schon recht lustig, in meinem shop sind über sitemap nur und ich betone nur 1156 Webseiten von dem shop bei google indexiert.....aber irgendwie macht google davon 6600 Webseiten und davon sind durch robots blockiert 3486 Webseiten......
Wir haben schon häufiger mal von Leuten gehört, dass Google bei Ihnen mehr blockierte Seiten meldet. Leider sind uns 99% der Leute die das gemeldet haben eine Liste schuldig geblieben, was blockiert wird. Damit sind wir da auch nicht vol Fleck gekommen. Diese Auflistung hier ist eindeutig und gibt schönes Material zur Bearbeitung durch uns, das gehen wir an. Was glaub ich allgemein bei Crawlern anders wird: Wenn man früher eine Seite aus dem Index haben wollte, hat ein robots Eintrag das einfach bewirkt. Rein da, fertig, 0 Probleme. Inzwischen geht Google immermehr dazu über, die Seiten dann trotzdem noch anzusehen, vielleicht führt von da ja noch ein Weg nach irgendwo. Das bedeutet für uns: Wir müssen mehr Blockaden aus der robots heraus an andere Orte mit anderen Mitteln bewegen. Das gilt zumindest für GET Parameter. Das kriegen wir vermutlich nicht von heute auf morgen anders, weil das systematisch zu machen etwas Überlegung braucht und vermutlich zahlenmässig einige Codeteile Anpassungen brauchen, aber ich denke da setzen wir jetzt bald mal an.
das problem dabei ist, du kannst bei google keine liste der blockierten seiten runterladen, dann wäre ich auch schon schlauer Tatsache ist aber das unter den blockierten seiten auch seiten also kategorien und oder artikel auftauchen die z.B. seit jahren nicht mehr im shop existieren
Nimm dir solche Seiten mal vor. Frage 1 ist dann: Welchen HTTP Status gibt der Shop zurück. Dazu am besten in der Browserkonsole für das HTMl Dokument schauen. Korrekt ist ein 404, falsch wäre so ziemlich alles andere. Hast du gegenteilige Fälle, brauche ich die entsprechenden URLs um die typisieren zu können, dann kann man sich dem annehmen. Kriegst du hingegen ein 404, und sind die URLs nicht in der Sitemap gibts wenig Potenzial.
Moin, möchte das Thema nochmal aufgreifen da sich an der Situation nichts geändert hat, im Gegenteil es werden täglich immer mehr Seiten, komischerweise nur für Smartphone blockiert. als Beispiel folgende URL eines Hersteller, komisch ist wie bei allen anderen blockierten Seiten das der Verweis aus den Shop eigenen Seiten stammt und nur bei Smartphone auftritt. https://www.sus-verbindungstechnik.de/?manufacturers_id=10&XTCsid=in2al2k6roo83j5sodjseb7t26 Dazu diese Info aus der Search Konsole Auffindbarkeit Sitemaps Nicht zutreffend Verweisende Seite https://www.sus-verbindungstechnik.de/gasnagler/gas-betonnagler/ Zuletzt gecrawlt am: 05.07.18 Erstmals erkannt am: 05.07.18 Crawling erlaubt? Nein: Durch robots.txt-Datei blockiert Seitenabruf Fehler: Durch robots.txt-Datei blockiert Indexierung Indexierung zulässig? Nicht zutreffend Vom Nutzer angegebene kanonische URL Nicht zutreffend Von Google ausgewählte kanonische URL Nicht zutreffend PS: Falls Liste benötigt habe ich Datei mit ca. 1000 URL Einträgen vom 19.06.18 bis 05.07.18
Das ist völlig korrekt so, und die sollte nicht nur fürs Smartphone blockiert sein. Herstellerseiten sind Filter, und Filter sind durchgängig blockiert.
Ja klar, so sollte es auch sein nur steigt das ganze rapide an und irgendwoher muss google ja info ja bekommen die seiten zu crawlen um diese Meldungen raus zugeben!?