Hallo, seit ein paar Tagen meckert "GoogleSeachConsole", dass er bestimmte Seiten nicht fnden kann, die mit einem bestimmten Parameter bestückt sind: https://www.tischdeko-online.de/product_info.php?info=p564_geeiste-Zapfen.html zB. Ich würde dies gerne bei der Url-Parametern ausschließen oder in der robot.txt im Vorfeld bereits abfangen. Jemand enen Tipp? Habe den Paramter "info" in der Google-Console erstmal auf "einschränkend" gesetzt, bin aber nicht sicher, ob das der richtige Weg ist. Da soll man ja lieber nicht dran, sagt Google. Danke für Eure Hilfe.
Das sieht nach einem Artikel von vor SEO-Boost aus, den Du nicht mehr hast. Sonst würde der Shop das weiterleiten.
In der neuen robot.txt ist der disallow auf *? nicht gesetzt - wäre da ein Weg?! Dann kommt Google da gar nicht erst dran...
Ok,Barbara, aber das sind die Info-Seiten zum Product, die der Google gar nicht crawlen soll..zumndest war das bisher so in der robot so eingestellt.