Hallo, verstehe ich nicht ganz, z.B. Disallow: /de/info/datenschutzerklaerung.html Disallow: /de/info/agb-kundeninformationen.html etc. Warum sollen derartige Contenseiten nicht von den Suchmaschinen gescrollt werden? Sorry, sofern die Frage Euch "dämlich" vorkommt, habe hier einfach ein grundsätzliches Verständnisproblem. Vielleicht kann es mir ja einer kurz erklären... vorab vielen Dank!
Hallo, das dient dem Schutz vor Abmahnungen. Falls jemand in seinem Shop eine abmahnfähige Formulierung in den Rechtstexten hat, wäre diese ohne Bockierung über die robots.txt bei Google schnell zu finden. Wenn sich Rechtstexte aufgrund von Gesetzesänderungen ändern, muss man als Shopbetreiber schnell handeln, was nicht jeder genau zum Stichtag hinbekommt.
Ich suche schon vorher... wie auch hier, nämlich robots und robots.txt eingegeben, aber nichts gefunden... UND nun durch Deine Anmerkung festgestellt... da habe ich wohl nicht genau geschaut, an welcher Stelle ich mich im Forum bei der Sucheingabe befand. Ergo: Wieder was gelernt! ... soll nicht wieder vorkommen!
Hallo Moritz, der Eintrag in der robots.txt ist ja schön und gut, letztlich indexiert Google die Seite doch. Die "Description" wird nur nicht eingeblendet sondern der Hinweis: "Die Datei "robots.txt" auf dieser Website lässt nicht zu, dass eine Beschreibung für das Suchergebnis angezeigt wird". Effektiv bzw. sinnvoll wäre es doch, wenn Mann/Frau einzelne Seiten (wie z.B. Agb, Datenschutz) direkt mit einem individuellen Meta-Eintrag "noindex" versehen könnte, denn dann listet Google die Seite überhaupt nicht mehr im Index. Ist so eine (sinnvolle) Möglichkeit für Content-Seiten zukünftig vorgesehen? Wenn nicht, ich finde, das würde Sinn machen. Frage: Gibt es eine "charmante" Möglichkeit (wenn auch nicht updatesicher), bestimmte Seiten mit einem "noindex" zu versehen? Wenn ja, wie denn ;-)?