Bedeutung "Eintrag in robots.txt (disallow)"

Thema wurde von wills24, 28. August 2019 erstellt.

  1. wills24
    wills24 Erfahrener Benutzer
    Registriert seit:
    16. Mai 2016
    Beiträge:
    283
    Danke erhalten:
    4
    Danke vergeben:
    150
    Hallo,
    ich bekomme das erste mal seit Jahren von google search console folgende Warnung:
    - Indexiert, obwohl durch robots.txt-Datei blockiert- da zeigt es mir 3 URLs an, die wohl nen Fehler haben.
    zB Impressum -

    upload_2019-8-28_13-29-31.png

    was bedeutet denn das Feld "Eintrag in robots.txt (disallow)" - Auswirkungen auf was? UND was muss ich jetzt genau tun?

    upload_2019-8-28_13-23-47.png
     
  2. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    8. Februar 2013
    Beiträge:
    1.425
    Danke erhalten:
    250
    Danke vergeben:
    173
    Die Hebel "Sitemap aufnehmen" und "Eintarg in robots.txt disallow" beide auf AN wiedersprechen sich.

    Entweder oder wäre hier die bessere Lösung.

    Hintergrund, durch die robots.txt disallow ist es nicht möglich dier Seite direkt in den Google Suchergebnissen zu finden, weil die Bots das dadurch nicht dürfen.

    In der SItemap stehen aber diese Seiten als "bitte finde mich" drin und das scheitert dann, deswegen die Fehlermeldung.
    Willst du, dass die Seite gefunden wird, dann robots "AUS", andernfalls Sitemap "AUS"
     
  3. wills24
    wills24 Erfahrener Benutzer
    Registriert seit:
    16. Mai 2016
    Beiträge:
    283
    Danke erhalten:
    4
    Danke vergeben:
    150
    Danke Dir, genau das hab ich glaube ich verändert....in sitemap aufnehmen !!
    super, nehm ich wieder raus!