Hallo um das gleich vorweg zu schicken, ich schiebe keine Panik wegen diesem "Fehler", finde es aber seltsam und störe mich generell an Fehlermeldungen auch wenn sie vielleicht unbedeutend sind. Google hat mir eine Warnung geschickt und mir mitgeteilt dass es eine Zunahme an "404"-Seiten in meinem Shop gibt. Ich habe also in der Search-Console nachgesehen und festgestellt dass die allermeisten Fehler daraus resultieren dass Google versucht den Links in Sitemaps zu folgen die schon lange nicht mehr existieren. In der Search-Console ist genau eine Sitemap für den Shop angemeldet, nämlich: ".../public/sitemap_index.xml". Diese Sitemap wird von Google auch als fehlerfrei gemeldet und verweist auf ".../public/sitemap-de_1.xml . Alle in dieser Sitemap angegebenen Links weisen auf existierende Seiten die auch fehlerfrei indexiert wurden. In den Fehlermeldungen der 404-Seiten wird angegeben dass die betreffenden Links aus den Sitemaps "sitemap.xml" im Stammverzeichnis des Shops- und aus "sitemap_1.xml" im Verzeichnis "public" stammen. Diese Sitemaps existieren aber an diesen Orten schon lange nicht mehr. Diese Steigerung an 404-Seiten ist aktuell und trat erst in den letzten Tagen auf. Entweder versucht Google "Geistermaps" zu folgen die irgendwo in den Tiefen von Google noch vorhanden sind und das Problem erledigt sich durch Zeitablauf, oder irgendwo im Shopverzeichnis liegen noch irgendwelche Verweise auf nicht mehr vorhandene Sitemaps. Jemand eine Idee? Alles versucht, ohne Ergebnis.
Ich habe jetzt alle diese 404-Meldungen markiert und in der Search Console als "gelöst" gemeldet. Mal sehen ob sie wiederkommen.
Das das kein Live indexierungsstand ist wisst ihr aber oder? Ich hab von einem neuem Projekt seiten in google Treffern die in GSC noch als 0 indexiert steht. Beim PW Shop siehst so aus
Dass das keine Livedaten sind ist mir klar. Wenn ich aber Ende August keinerlei Fehler auf der Seite habe und Anfang September 50 404-Seiten gemeldet werden die zu Stande kommen weil Google den Links in nachweislich nicht auf dem Server vorhandenen Sitemaps folgt, dann ist das doch ein Grund mal nachzufragen, oder?
ja klar. das meint ich auch damit nicht. Nur das die Anzahl an indexierten Seiten immer irgendwie nicht ganz passt. Es kommen bei uns auch ab und an Fehler von Seiten die es seit 1 Jahr nciht mehr gibt. Irgendwie kommen die immer mal wieder rein.
Anscheinend ist ein Herr Page verantwortlich. Ich rufe den jetzt an und frage was da los ist. Hat jemand die Nummer? Ich finde da online nichts.
Kannst ja mal über seine Studenten Mail versuchen Spoiler: Larry Page Student Larry (Lawrence) Page Ph.D. Student Computer Science Department Stanford University email: page@cs.stanford.edu phone: (650) 330-0100 Spoiler: Larry Page bei Alphabet Larry Page Title: CEO & Founder by Alphabet Email address: (Link nur für registrierte Nutzer sichtbar.)
Wenn man in Google mit "site:www.meinshop.de" sucht, wird die Anzahl der indizierten Seiten angezeigt und man kann die Seiten, die im Index sind, schön aufgelistet ansehen. Dies stimmt bei meinen Shops fast exakt mit den Angaben in der Searchconsole überein. Jedoch nicht immer mit der Sitemap. Ich schätze mal, Google will sich nicht durch die Sitemap bevormunden lassen.
wie genau die Anzahl ist hängt auch von ab wieviel neue Seiten du einstellst jeden Tag / Woche / Monat. Sitemap ist eh nur Wegweiser für google. was er indexirt entscheidet er ja selbst
Von den obigen Ergebnissen und meinen eigenen könnte man vermuten, dass die Links der Sitemaps bis einige hundert Artikel sehr genau indexiert werden. Bei mehreren tausend Artikeln scheint es zu stocken.