unklare Links bei google nach update 3.6.0.2

Thema wurde von Anonymous, 26. September 2017 erstellt.

  1. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    Hehe, was ist denn das hier?!

    (Link nur für registrierte Nutzer sichtbar.)

    Werdet ihr auf eure alten Tage doch noch einsichtig? :-D
     
  2. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    Eine Parameter-Ausschluss-Whitelist wäre aber trotzdem noch der bessere Weg als jetzt mit einer Blacklist anzufangen.
     
  3. Wilken (Gambio)
    Wilken (Gambio) Erfahrener Benutzer
    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.311
    Danke vergeben:
    2.208
    Keineswegs.

    Wir fangen nicht jetzt mit einer Blacklist an, wir haben schon die ganze Zeit eine. Und diese bestehende Liste haben wir graduell um einen Parameter erweitert. Wir wollen auch nicht zu einem Whitelist-Modell übergehen, wir wollen schon bei einem Blacklist-Modell bleiben.
     
  4. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    Dann wären meine weiteren Vorschläge für die Blacklist:

    view_mode
    listing_count
    listing_sort
     
  5. Wilken (Gambio)
    Wilken (Gambio) Erfahrener Benutzer
    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.311
    Danke vergeben:
    2.208
    Die sind alle über die robots Datei gesperrt. Die werden nicht indiziert.

    Wenn ein irregulärer Crawler, der sich an keine Regel hält, trotzdem Seiten mit den Parametern aufruft, sollte er auch Tags mit den enthaltenen Parametern bekommen, sonst wird der Kontext völlig verloren gehen.
     
  6. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    #86 Anonymous, 19. Juni 2018
    Zuletzt bearbeitet: 19. Juni 2018
    Ok, das hatten wir ja schon, nachweislich und nach offizieller Aussage von Google können von der robots.txt gesperrte Dateien trotzdem indexiert werden, nur dann ohne Meta-Daten. Auf diesem Auge bleibt Gambio weiterhin blind und ignoriert die Fakten.

    Ich frage mich nur, warum ihr für products_qty jetzt plötzlich eine Sonderlösung schaffen wollt? Ist doch auch in der robots.txt gesperrt.
     
  7. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    Was für ein Kontext geht denn verloren, wenn ein regulärer oder irregulärere Crawler eine Seite im Grid-Modus statt in der Listenansicht aufruft?
     
  8. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    Wilken, es tut mir WIRKLICH leid und es ist nicht böse gemeint, aber ihr seid tatsächlich mit eurer Canonical-Lösung allein auf der Welt und auf dem Holzweg. Du wirst keine Autorität und keine Quelle nennen können, die euren Weg empfiehlt oder für gut befindet, glaube ich. Bisher habt ihr euch noch nicht einmal getraut zu sagen, wer euch diese Umsetzung angeraten hat. Möglicherweise weil das niemand getan hat?

    Ich habe mit verschiedenen ausgewiesenen SEO-Experten gesprochen und gemailt die von eurer Umsetzung abraten, und ich habe auch eure Aussagen zur Verteidigung eurer Lösung mit Fakten aus unmittelbaren Quellen mehrfach widerlegt. Ich habe auch mehrere unwiderlegbare Probleme eurer Umsetzung mehrfach angesprochen, die ihr nur als theoretisch und konstruiert abgetan habt. Ihr habt auch noch nicht geschrieben, was der Vorteil eurer Lösung ist, der das Risiko wert ist, hier abseits des allgemein anerkannten Verfahrens zu handeln.

    Da hilft alles Diskutieren und Aussitzen nichts. Ich finde, ihr könntet auch mal sagen: "Jo, das ist nicht so optimal geworden, werden wir nochmal in Zukunft überarbeiten", statt den Kopf in den Sand zu stecken und aus Prinzip an schlechten Lösungen festzuhalten.
     
  9. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    31. Mai 2011
    Beiträge:
    343
    Danke erhalten:
    36
    Danke vergeben:
    86
    ganz meiner Meinung.
    aussperren, wie über robot.txt funktioniert überhaupt nicht wirklich, gecrawlt wird eh alles mögliche...
    gibt man eine neue URL ein wird alt und neu munter gecrawlt, oder kurz und lang wenn kurze URL bei Produkten vorgegeben ist
    ich dachte immer canonical gegen duplikat content, ich sehe nicht das dies im shop system mal wirklich funktioniert hat
     
  10. mmatecki
    mmatecki Erfahrener Benutzer
    Registriert seit:
    24. Juni 2018
    Beiträge:
    841
    Danke erhalten:
    190
    Danke vergeben:
    86
    #90 mmatecki, 11. Juli 2018
    Zuletzt bearbeitet: 11. Juli 2018
    die products_qty wird regelmäßig bei mir in der search konsole als blockierte ressource mit aufgenommen tendenz steigend!! seit dem 08.05.2018 von 50 auf 157 Seiten

    auch sind die seiten die eigendlich über den Eintrag Disallow: /*XTCsid* in der robots.txt gesperrt sind bei mir indexiert und werden als blockierte Seiten in search konsole raus gegeben. Zuwachs innerhalb einer WOCHE ca. 1000 Seiten!!!!

    Mal die Frage an GAMBIO soll das so weiter gehen??
     

    Anhänge:

  11. Anonymous
    Anonymous Erfahrener Benutzer
    Registriert seit:
    19. Juni 2012
    Beiträge:
    4.831
    Danke erhalten:
    1.125
    Danke vergeben:
    947
    #91 Anonymous, 11. Juli 2018
    Zuletzt bearbeitet: 11. Juli 2018
    Gut so! Genau so muss das! Eine SEO-Notwendigkeit, dass diese Ressourcen nicht indexiert werden. Das soll Gambio mit noch mehr Parametern machen, die keine Auswirkung auf den Inhalt der aufgerufenen Seite haben.