Bug: Robots.txt veraltet - Aktualisierung nicht möglich

Thema wurde von Anonymous, 26. August 2024 erstellt.

  1. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Juli 2021
    Beiträge:
    410
    Danke erhalten:
    174
    Danke vergeben:
    137
    Hallo zusammen,

    aktuell wird bei uns im Cloudshop angezeigt, dass die Robots-txt Datei veraltet sei.

    Die Meldung erscheint an zwei Stellen:

    1. (Link nur für registrierte Nutzer sichtbar.)
    2. (Link nur für registrierte Nutzer sichtbar.)

    Klickt man auf den Button, kann man wie gewohnt die Datei aktualisieren.
    Nur wird das Problem dadurch nicht behoben.

    Wenn man sich die Datei via (Link nur für registrierte Nutzer sichtbar.) anschaut, sieht man, dass die Datei nicht vollständig ist.
    Cache leeren etc. bringt nichts.
    Datei 1.000 mal neu erstellen bringt auch nichts.
    In der Cloud sind einem sowie die Hände gebunden.

    Daher nur die Frage:
    Hat noch jemand das Problem?

    Btw:
    Genau das Selbe Problem hatte ich schon mal vor ein paar Jahren.
    Da hat mir der Support netterweise eingeredet, dass das Problem nicht existiert.
    Und dann war das Problem tatsächlich plötzlich behoben.
    Da der Support heutzutage nicht so schnell antwortet:
    Kann mir bitte jemand einreden, dass es das Problem nicht gibt?
    Danke im Voraus.


    upload_2024-8-26_13-56-34.png

    upload_2024-8-26_13-56-47.png
     
  2. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    11. Juli 2021
    Beiträge:
    410
    Danke erhalten:
    174
    Danke vergeben:
    137
    Der Support hat mein Ticket immer noch nicht bearbeitet und ich kann schon die E-Mails von Google riechen.

    Hat jemand Tipps, wie ich das Problem eventuell lösen könnte?

    Robots.txt habe ich jetzt oft genug aktualisiert.
    Cache habe ich von unten nach oben, dann von oben nach unten und von rechts nach links und umgekehrt geleert.
    Browser Cache ebenfalls geleert.
    Gibt es noch irgendwelche Ideen für einen Cloudshop?
     
  3. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    30. Mai 2016
    Beiträge:
    286
    Danke erhalten:
    64
    Danke vergeben:
    329
    Meine robots.txt:

    User-agent: *
    Allow: /
    Sitemap: (Link nur für registrierte Nutzer sichtbar.)

    ...und sonst nix!

    Die Meldung einfach ignorieren oder wegklicken. Ich habe noch keinerlei Nachteil erkennen können, wenn nicht die von Gambio generierte robots.txt verwendet wird. Als ich diese aber noch verwendet habe, gab es ständig Probleme mit Google/Indexierung usw.. Hat mir Dominik Späte empfohlen und es hat sich wie immer bewährt.