Hallo, ich bin zum ersten mal in diesem Forum und hoffe das mir jemand helfen oder einen Tip geben kann. Ich habe vor einiger Zeit meinen Shop auf die Version 3.7.3 upgraden lassen. Nun habe ich die Problematik das die Sitemap.xml von Robots anscheinend nicht mehr gefunden wird.Das gleiche gilt auch für Online Programme wie Seitenreport etc. diese sagen das eine Robot.txt vorhanden ist (allerdings mit Fehlern) und eine Sitemap nicht vorhanden ist. Früher war es ja so das die Sitemap.xml nach dem generieren automatisch in das Hauptverzeichnis geladen wurde und man anschließend nur die 1 weglöschen und die Sitemap wurde gefunden. Bei der Version 3.7.0 ist es so das die Sitemap.xml in html/GX2-public gespeichert wird und dort auch vorhanden ist. Hier gibt es dann zwei Sitemap.xml, nämlich Sitemap-de.xml und Sitemap-en.xml so wie eine Index.html. Nur so werden die Dateien anscheinend nicht gefunden. Die robot.txt hab ich auch neu generiert und diese ist im Hauptordner GX2 hinterlegt. Woran liegt das ,mach ich was falsch und was kann ich tun. Für Unterstützung wäre ich dankbar.
Hallo, ich erlebe momentan auch ein seltsames Phänomen. "/public/sitemap_index.xml" ist bei Google angemeldet und wird korrekt verarbeitet. Gestern bekomme ich plötzlich Post von Google: "Der Googlebot für Smartphones hat eine erhebliche Zunahme der Anzahl der URLs von https://www.klingeltafel-onlineshop.de/ festgestellt, die den Fehler "404 (nicht gefunden)" zurückgeben. Wenn diese Seiten auf Ihrer Desktopwebsite vorhanden sind, kann diese Fehlermeldung bei Nutzern von Mobilgeräten zu einer schlechten Nutzererfahrung führen. Außerdem kann diese Fehlkonfiguration Google daran hindern, in den Ergebnissen der mobilen Suche die richtige Seite anzuzeigen. Wenn diese URLs nicht vorhanden sind, müssen Sie auch keine Maßnahmen ergreifen." Die in der Searchconsole angezeigten Seiten mit 404-Fehler linken tatsächlich zu Seiten die teilweise seit Monaten nicht mehr existieren. Allerdings hat Google diese Produklinks aus der "sitemap.xml" im Rootverzeichnis des Shops, die da seit der Umstellung (3.7 ?) gar nicht mehr vorhanden ist. Heute habe ich erneut nachgeschaut und die Anzahl der 404 Fehler ist sogar gestiegen. Jetzt sagt Google dass Links aus der Sitemap "https://www.klingeltafel-onlineshop.de/public/sitemap-de.xml" nicht zu erreichen sind. Woher holt Google diese Sitemaps? Sind das "Leichen" die irgendwo im Google-Cache liegen und irgendwann von selbst verschwinden, oder muss man da selber tätig werden?
Interessant. Ich habe seit 4 Wochen und Updates auch eine steigende Indexierung bei Google, von 5.000 auf 12.000. Das Ticket #100650401bei Gambio hat nichts gebracht, da dieses Thema nicht vollständig durch den Support abgedeckt ist (also was Google macht). Bei mir meldete Google: es sind 4.000 Seiten indiziert, die durch die robots.txt blockiert sind. ??? Google hat bei mir auch sehr alte URLs mit dem aktuellen Shop verglichen und gemeldet, dass es diese Seiten nicht mehr gibt. (404) Google ist anscheinend Herstellerlinks (Box und Bildern im Artikeldetail) gefolgt und hat angefangen, jeden Artikel auch noch mal nach Hersteller zu indizieren. Google hat plötzlich angefangen, Produkte in der englischen Sprache zu indizieren. Dann gibt es wieder Indizierungen zu ca. 40 Ländern, die ich aktiviert habe. Sprich switch_country=RU usw. Von den über die Sitemaps eingereichten 4.200 Artikelurls (de un en) sind laut Google nur 934 indiziert. Im 2. Shop ist es ähnlich, nur mit weniger Artikeln. Da spukt noch das MobileCandy Templateswitch usw. Als Laie ist man da jetzt überfordert. Liegt es an Google oder am verwendeten Gambio-Shopsystem (Version 3.10)?
Dieser Forenbeitrag wird keinesfalls befriedigende Antworten finden. Er ist so angelegt, dass das quasi ausgeschlossen ist. Ihr kippt nämlich einfach mal jedes SEO Thema in einen grossen Topf, es sind aber viele Themen. Egal zu welchem Thema man versuchen wird sich zu unterhalten, es wird nicht gelingen, es wird komplett durcheinandergehen. Der nächste der kommt wird seins oben drauf tun, es gibt keinen roten Faden. Check, dass für jede eingereichte property (gerne Seite einmal mit Https, einmal ohne oder einmal mit www und einmal ohne....) die alte Sitemap nicht mehr da ist. Wenn doch, dann lösch die in der Konsole. Das kann normal oder falsch sein. Das weiss man nicht. Es ist auf jeden Fall ein eigenes Thema, und ein anderes als hier. Das kann richtig oder falsch sein, das weiss man so nicht. Man muss Beispiele prüfen. Es ist auf jeden Fall ein eigenes Thema, und ein anderes als hier. Das ist ein Problem. Das zu besprechen wäre ein eigenes Thema. Das ist ein Problem. Das zu besprechen wäre ein eigenes Thema. Das hat so einzeln keine Aussagekraft und wäre recht sicher ein eigenes Thema. Das ist ein Problem. Das zu besprechen wäre ein eigenes Thema. Das könnte man bestimmen, wenn die anderen Themen besprochen wären. Vermutlich in einem eigenen Thema.
In jedem Fall sind die Ergebnisse in der Searchconsole bei meinen Seiten im letzten Monat ungewöhnlich. Gedacht war mein Beitrag dafür, das andere User dies mit ihren aktuellen Ergebnissen mit der Sitemap und der Indizierung bei Google vergleichen. Evtl. gibt es Parallelen. Gibt halt manchmal den Effekt, dass ein Beitrag den Verlauf in eine andere Richtung lenkt. Tipp an @hartmutbest: das Forum zuvor durchsuchen, das Thema wurde schon mehrmals hier behandelt: https://www.gambio.de/forum/threads/sitemap-bei-google-search-einrichten.32277/ Noch ein Tipp zur Suche: Das Forum mit Google durchsuchen: z.B: "google findet sitemap nicht gambio" Der Titel eines Beitrages sollte generell detailierter bezeichnet sein, damit Folgebeiträge dazu passen und man den Beitrag in der Suche findet. Hier z.B. "Sitemap wird von Google nach Shopupdate nicht mehr gefunden".