Master Update v3.10.0.0 erschienen

Thema wurde von Wilken (Gambio), 13. Juni 2018 erstellt.

  1. Joachim Schubert

    Joachim Schubert Erfahrener Benutzer

    Registriert seit:
    15. Juni 2012
    Beiträge:
    604
    Danke erhalten:
    92
    Danke vergeben:
    197
    Hallo,

    ne dringende Frage, ich muss Speicherplatz freigeben - wegen erneuter strato Erpressung heute ...

    Kann bei templates der Ordner eyecandy und gambio gelöscht werden. Hab honeygrid als Vorlage ausgwewählt oder ist dann der Shop problematisch auch wegen Handynutzung?

    Danke J. Schubert
     
  2. Torben Wark

    Torben Wark Gambio GmbH

    Registriert seit:
    15. Juli 2014
    Beiträge:
    2.581
    Danke erhalten:
    1.178
    Danke vergeben:
    399
    Kannst du löschen. Schau dir auch mal den logfiles-Ordner an, ob du da noch alte Dateien hast, die du nicht mehr brauchst.
     
  3. Joachim Schubert

    Joachim Schubert Erfahrener Benutzer

    Registriert seit:
    15. Juni 2012
    Beiträge:
    604
    Danke erhalten:
    92
    Danke vergeben:
    197
    Danke, kann alles in logfile ordner gelöscht werden? oder nur die error files?

    die debug und errors löschen ohne .htaccess oder?
     
  4. Torben Wark

    Torben Wark Gambio GmbH

    Registriert seit:
    15. Juli 2014
    Beiträge:
    2.581
    Danke erhalten:
    1.178
    Danke vergeben:
    399
    Ich würde zumindest die aktuellsten Dateien noch übrig lassen, damit im Supportfall noch Einträge zum sichten vorhanden sind.
     
  5. diana_kleczka

    diana_kleczka Erfahrener Benutzer

    Registriert seit:
    24. Januar 2018
    Beiträge:
    272
    Danke erhalten:
    29
    Danke vergeben:
    76
    Hallo, ich habe eben auch meinen Testshop von 3.9.1.2 auf 3.10.0.0 geupdatet.
    Jetzt hängt er allerdings schon seid über 10 Minuten bei "Bitte haben Sie ein wenig Geduld, bis die Caches des Shops neu aufgebaut wurden...". Wie lange sollte man da warten? Kann ich das Fenster zumachen und nochmal starten?
    Vielen Dank schon mal!
     
  6. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    31.183
    Danke erhalten:
    6.202
    Danke vergeben:
    1.104
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    ich lösch immer alle die älter als 2 Monate sind.
     
  7. barbara

    barbara G-WARD 2014-2020

    Registriert seit:
    14. August 2011
    Beiträge:
    35.569
    Danke erhalten:
    11.312
    Danke vergeben:
    1.614
    Manchmal hängt sich das da auf.
    Wenn aber die Cache neu geladen werden soll, ist das Update durch.
    Wenn das nicht weiter geht, kannst Du das abbrechen und dann im Admin einmal die Cache von unten nach oben leeren (und den vom Browser auch)
     
  8. diana_kleczka

    diana_kleczka Erfahrener Benutzer

    Registriert seit:
    24. Januar 2018
    Beiträge:
    272
    Danke erhalten:
    29
    Danke vergeben:
    76
    Habe ich eben gemacht (Herz hat gepocht;-) ist aber alles gut gegangen. Danke Barbara
     
  9. Joachim Schubert

    Joachim Schubert Erfahrener Benutzer

    Registriert seit:
    15. Juni 2012
    Beiträge:
    604
    Danke erhalten:
    92
    Danke vergeben:
    197
    Danke muß mann halt wissen..... jetzt weiß ich es.....
     
  10. mmatecki

    mmatecki Erfahrener Benutzer

    Registriert seit:
    24. Juni 2018
    Beiträge:
    748
    Danke erhalten:
    157
    Danke vergeben:
    75
    #110 mmatecki, 25. Juni 2018
    Zuletzt bearbeitet: 25. Juni 2018
    Moin,

    in 3.10.0.0 schon wieder ne neue sitemap???

    hab jetzt 3 Varianten im public ordner

    die vorherige version /public/sitemap-de.xml
    diese neue Version /public/sitemap-de_1.xml
    und diese sitemap_index.xml


    Was denn nu???

    Edit:

    Wird in der robots.txt kein Pfad mehr für die Suchmaschinen ausgegeben?

    Sitemap: https://www.example.de/public/sitemap-de.xml
     
  11. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.310
    Danke vergeben:
    2.208
    Wir haben die XML Sitemaps vor kurzem nochmal angefasst, weil es noch ein Problem zu lösen gabe: Die Anzahl von Seiten, die man in einer Sitemap Datei haben kann ist auf 50000 URLs begrenzt. In Shops mit sehr vielen Kategorien und vor allem Artikeln kamen Leute drüber, dann konnte die nicht verarbeitet werden, die musste also weiter gesplittet werden als nur pro Sprache eine.
    Wenn man jetzt auch noch annimmt, dass sich die aktive Artikelanzahl mal über die Schwelle von 50000 und zurück ändern kann, kommt noch ne doofe Sache: Die Anzahl der zu refenrenzierenden Dateien verändert sich. Nach altem Schema müsste man als dann auch jedes mal die robots Datei neu schreiben lassen, das fanden wir umständlich.
    Wir erzeugen jetzt also beim generieren der XML Sitemap die eigentlichen Sitemap Dateien (sitemap-Sprache_Nummer), dazu eine Inhaltsverzeichnis XML Sitemap mit festem Namen (sitemap_index.xml), die dann immer in der robots zu referenzieren ist und normal automatisch wird. Es gibt so gesichert keine Abhängigkeit die robots Datei ständig neubauen lassen zu müssen. Wenn das nicht passiert, stimmt irgendwas nicht, sollten wir dann ansehen.
     
  12. mmatecki

    mmatecki Erfahrener Benutzer

    Registriert seit:
    24. Juni 2018
    Beiträge:
    748
    Danke erhalten:
    157
    Danke vergeben:
    75
    #112 mmatecki, 26. Juni 2018
    Zuletzt bearbeitet: 26. Juni 2018
    Welche wird nu in der Search Console eingereicht beide?

    Das ist ja wieder was für die Google Indexierung! Letztes jahr erst im Ranking abgestürzt weil die map aus dem root-verzeichniss ins public verschoben wurde, jetzt schon wieder weil die Datei umbenannt von der vorherige Version /public/sitemap-de.xml auf diese neue Version /public/sitemap-de_1.xml!!!

    Für Gambio-Update Kunden sehr SEO/Ranking unfreundlich...

    dazu wieder die ganzen Anpassung, gerade erst in Version 3.9.2 AMP aktiviert mit der alten sitemap......

    warum kann man die Datei nicht unter dem alten namen generieren?

    Edit: in meiner robots ist kein eintrag der irgendwie auf eine sitemap verweist
     

    Anhänge:

  13. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    31.183
    Danke erhalten:
    6.202
    Danke vergeben:
    1.104
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    Schau mal in die sitemap_index.xml da sind dann normal die anderen sitemaps angegeben. google findet verlinkte Sitemaps aus solchen übersichts Sitemaps selbstständig dann.
     
  14. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    26. Oktober 2011
    Beiträge:
    967
    Danke erhalten:
    149
    Danke vergeben:
    130
    ne ne ne da kommt immer ein Fehler...

    Beim Versuch, auf Ihre Sitemap zuzugreifen, ist ein Fehler aufgetreten. Bitte vergewissern Sie sich, dass Ihre Sitemap unseren Richtlinien entspricht und unter der angegeben Adresse zu finden ist, und reichen Sie sie dann erneut ein.
     
  15. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    31.183
    Danke erhalten:
    6.202
    Danke vergeben:
    1.104
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    evtl. falschen Pfad?
    der muss
    www . deinshop . tld /public/sitemap_index.xml
    sein.
    ruf sie einfach mal im browser auf, dann steht da wo die sitemap1 zu finden ist
     
  16. Anonymous

    Anonymous Erfahrener Benutzer

    Registriert seit:
    26. Oktober 2011
    Beiträge:
    967
    Danke erhalten:
    149
    Danke vergeben:
    130
    Der Pfad stimmt, Google meckert über die formatierung.
    Das ist mir mal irgendwann aufgefallen.

    Eventuell ist das auch der Grund warum manche so Ranking einbrüche haben.

    Ich verlinke jetzt die Sitemaps direkt.
     
  17. mmatecki

    mmatecki Erfahrener Benutzer

    Registriert seit:
    24. Juni 2018
    Beiträge:
    748
    Danke erhalten:
    157
    Danke vergeben:
    75
    Hallo Dennis, vielen Dank. also die sitemap_index.xml reicht für google und co

    Wird der Linkverweis in der robots.txt auf die sitemap in dem ordner public nicht mehr benötigt? bisher also bis zu meiner letzten Versin 3.9.1.2 wurde der immer in der robots mit ausgegeben?
     
  18. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    31.183
    Danke erhalten:
    6.202
    Danke vergeben:
    1.104
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    da meckert nix bei uns. hab das ja auch so.
    da müsste man sich mal den inhalt deiner datei ansehen.
     
  19. Dennis (MotivMonster.de)

    Dennis (MotivMonster.de) G-WARD 2013/14/15/16

    Registriert seit:
    22. September 2011
    Beiträge:
    31.183
    Danke erhalten:
    6.202
    Danke vergeben:
    1.104
    Beruf:
    Mann für alles :)
    Ort:
    Weilburg
    ist da dennoch sinnvoll, den es gibt nciht nur google die die finden sollen :)
     
  20. Wilken (Gambio)

    Wilken (Gambio) Erfahrener Benutzer

    Registriert seit:
    7. November 2012
    Beiträge:
    18.737
    Danke erhalten:
    7.310
    Danke vergeben:
    2.208
    Jetzt nochmal in Ruhe:

    Wir sind der festen Ansicht, dass normal niemand mit einem existierenden Shop aufgrund der Änderungen am XML Sitemap Generator einen Ranking Nachteil erleiden sollte. Wenn alles im Shop nach Plan vorgesehenem Plan funktioniert, sollte sich Google völlig automatisch und von selbst die neue XML-Sitemap picken. Der Pfad ist dem Crawler normal absolut schnurzpiepe, solange er eine oder mehrere gültige XML Dateien findet.

    Wenn ihr die robots Datei neu erzeugt, und darin ist kein Hinweis auf die Index-Sitemap, dann ist etwas kaputt. Mein Laborshop verhält sich wie ich es erwarte, ich kann nicht erkennen, dass das generell kaputt wäre. Wer da ein Problem hat, löst also ein Ticket.

    Wenn eine vom Shop erzeugte Sitemap Datei nicht valide ist, stimmt auch etwas nicht. Mein Laborshop erzeugt valide XMl Sitemaps, ich kann wieder keinen Fehler sehen hier. Wer da ein problem hat, löst ein Ticket, dann sehen wir uns das an.

    Es müssen auch keine neuen Sitemaps bei Google eingereicht werden. Wir gehen hier davon aus, dass die Funktion soweit funktioniert wie vorgesehen. Wenn nicht meldet ihr euch wie gesagt per Ticket. Also: wenn sich die Sitemap selbst zwar geändert hat, aber der Shopinhalt selbst nicht, dann ist das einreichen einer neuen Sitemap tendenziell kontraproduktiv bis egal im besten Fall.

    Der Crawler schaut bei jedem Crawling in die robots Datei! Da steht wo er alles findet! Kein manueller Eingriff nötig!

    Es ändert sich nur etwas für die, die ihre Seite neu eröffnen, und jetzt einen etwas anderen Sitemap Pfad einmalig bei Google einreichen müssen!