Hallo, ich bekomme das erste mal seit Jahren von google search console folgende Warnung: - Indexiert, obwohl durch robots.txt-Datei blockiert- da zeigt es mir 3 URLs an, die wohl nen Fehler haben. zB Impressum - was bedeutet denn das Feld "Eintrag in robots.txt (disallow)" - Auswirkungen auf was? UND was muss ich jetzt genau tun?
Die Hebel "Sitemap aufnehmen" und "Eintarg in robots.txt disallow" beide auf AN wiedersprechen sich. Entweder oder wäre hier die bessere Lösung. Hintergrund, durch die robots.txt disallow ist es nicht möglich dier Seite direkt in den Google Suchergebnissen zu finden, weil die Bots das dadurch nicht dürfen. In der SItemap stehen aber diese Seiten als "bitte finde mich" drin und das scheitert dann, deswegen die Fehlermeldung. Willst du, dass die Seite gefunden wird, dann robots "AUS", andernfalls Sitemap "AUS"
Danke Dir, genau das hab ich glaube ich verändert....in sitemap aufnehmen !! super, nehm ich wieder raus!