@L & B , vielen Dank für deine Antwort. Leider muss ich noch fragen , welche der beiden Optionen( Siehe bild) Will halt nix verkehrt machen.
Hallo, Guten Abend, diese URLs sind mir auch schon aufgefallen. Ich bin noch bei 3.2.2.0. Jetzt habe mal nach längerer Zeit im webmaster nachgeschaut. Da sind eigentlich alle meine URLs doppelt aufgelistet. Im Google index habe ich 61 mal eine URL damit gefunden. Ich bin mir nicht sicher ob das so gewollt. Das ist aus meiner Sicht doppelter Content was von google abgestraft wird. Das Problem gibt es doch auch schon länger. Eine Info in der Robot.txt ist aus meiner Sicht keine vernünftige Lösung. Oder muss irgendwo was im Shop anders eingestellt werden? Danke Grüße
@kiam harmony, doch das mit der Robots Datei, wie es L & B beschrieben hat funktioniert. Und noch die Parameter einstellen und dann dürften die Urls weggehen. Ich habe noch zusätzlich in Google index-Url entfernen, alle Urls eingetragen. Das das mit der Robotsdatei funktioniert kannst du testen.
Hallo Hartwig, das das mit der robot sperrung irgendwann mal klappt ist mir schon klar. Die Frage ist aber für mich wie kommen diese URLs zustande und wie kann man das crawlen vermeiden. Es entstehen nämlich die kuriosesten Seiten mit meta Angaben die gar nicht so eingestellt wurden. Das ist ganz schlechter doppelmoppel. Kurios ist auch das diese Links den selben Title haben ist gar nicht möglich laut meta Angaben, wird aber so von google ausgelesen (Link nur für registrierte Nutzer sichtbar.) (Link nur für registrierte Nutzer sichtbar.)
Ja, blöd ist vor allem auch: Meta Title etc. vom Produkt, aber man kommt ja nicht einmal auf die Produktseite sondern auf die Kategorieseite. "Normale" Besucher bekommen diese seltsamen Links ja nirgendwo angezeigt, daher gehe ich davon aus, dass das irgendeine URL ist die den Suchmaschinen-Bots versehentlich angezeigt / generiert wird. Der Struktur nach würde ich darauf tippen, dass das auf den Produktseiten von dem "In den Warenkorb" Button kommt bzw. von der Mengenauswahl auf der Produktseite. Im Quelltext finde ich: Code: <div class="input-group"> <a class="btn btn-default btn-lg btn-minus"><span class="fa fa-minus"></span></a> <input type="text" class="form-control input-lg pull-right js-calculate-qty" value="1" id="attributes-calc-quantity" name="products_qty" /> <a class="input-group-btn btn btn-default btn-lg btn-plus"><span class="fa fa-plus"></span></a> </div> Wenn sich die Generierung dieses Links technisch nicht unterbinden lässt, wäre die robots.txt Lösung sicherlich gut. Oder eine Mod_Rewrite-Lösung. Oder vielleicht hilft auch schon ein rel="nofollow" für diesen Link? Vielleicht ist das noch ein Thema für die Version 3.4.1.0 ?
Immernoch nicht tiefenuntersucht, aber ich behaupte das ist ein Robots-Thema. Das ist kein Rewrite Thema, weil der shop solche Links gar nicht generiert. Der Crawler bastelt sich irgendeinen Käse aus realen Elementen und hidden fields im HTML zusammen, die du in keinem Browser zusammenklicken kannst. Weil es diese Links nicht gibt, kann es auch kein nofollow Thema sein. Wir schauen uns das recht bald genauer an, dann verstehen wir was da passiert. Dann machen wir etwas. Wie immer
Es gibt eine neue Url, die plötzlich auftaucht und auch ans Ziel führt. "de/product-57.html" Habe die auch per Robots mit Disallow: /*product* gesperrt, hoffe es ist okay so.
Nicht ok schätze ich. Meine Vermutung: Da fehlen die Url keywords bei dem Produkt (und noch bei 56 anderendavor?)
Okay verstehe ich, ich habe mal statt der 57 eine 56 draus gemacht und da kam error. Meine Produkte sind alle mit url keywords ausgestattet.
Zumindest dieses hier nicht: (Link nur für registrierte Nutzer sichtbar.) Da dürfte product-57 drin stehen (automatisch vergeben)
Hallo Zusammen, gibt es zu dem Thema schon eine Lösung, auch wir haben jetzt in der Searchconsole diese Links mit products_qty= bzw. products_id= Danke schon mal!! Philipp