Also wenn schon mit Filzilla dann lass deinen server doch vorher wenigstens alles zippen und sicherung mit phpmyadmin - von hand? Nutz den MySQLdumper mit nem Cronjob und du musst dich nie wieder drum kümmern.
Ja PHPMyAdmin läuft ja unter MYSQL bei 1 & 1. Da braucht man nur den Export-Button anklicken dann lässt sich innerhalb 5-6 Sekunden auf loakle Festplatte runterzuladen. es ist genau das selbe wie du oben beschrieben hast. Auch die Datenbank hochzuladen ist ganz einfach über die Funktion Importieren. Und das mit dem zippen bin ich gerade am testen ob es wirklich von Aufwand hier schneller geht.
also alleine schond as einloggen in den phpmyadmin kostet ZEIT und ZEIT = GELD MySQLdumper kostet NIX und nur einmal paar Minuten einrichten UND man hat je nach einstellung, AUTOMATISCH (sprich ohne das man sich drum kümmern muss, das man es vergessen kann usw) Sicherungen. Was bitte da das selbe wie bei deiner Methode??????
Sehr schön ... und wer macht den Klick Nachts, oder während deiner Abwesenheit? Verstehe das jetzt bitte nicht falsch: WIr wollen Dich nicht belehren oder bekehren. Aber es gab hier schon´ne Menge User, die erst im Fall der Crashs gemerkt haben: Upps ... das hätte man evtl optimaler Lösen können. Anregung: MySQLDumper - cronjob alle 60min* - erst xxx Sicherungen die alten Löschen! *) Kostet nix und fördert den Nachtschlaf!
so ist es nicht. Ich lasse mich gerne besseres belehren. z.B. habe ich gerade das zippen wie Dennis es beschrieben hat getestet. Es hat genau 10 Minuten gedauert um die Daten von einem Domain zu zippen, runterladen und zu entzippen. SUPER!!! das ist min. 3 mal so schnell wie meine eigene Methode und werde ich in Zukunft es so machen. Das mit dem MySQLDumper - cronjob alle 60min*, dann bitte erkläre es mir wie genau das geht? werde ich es sofort aus probieren.
MSD gibts hier: (Link nur für registrierte Nutzer sichtbar.) Cronjob gibts bei deinem Provider (naja bei 1und1 nicht in jedem Paket) oder heir: (Link nur für registrierte Nutzer sichtbar.) von extern.
Nach diesem Prinzip möchte ich das Leben nicht betrachten. Aber Zeit an solch Arbeiten zu sparen ist schön. So bald ich weiß wie deine Methode funktioniert werde ich es testen.
ENTZIPPEN ... ja warum dieses? Selbst der (ur)alte "TotalCommander" kann jede Operation in einem ZIP-File.
Ach die benutzte ich ziemlich oft - als ZIP-Paket. Siehe Bild - im linken Fenster das ZIP-Paket und im rechten das Servelaufwerk ... und dann die eingebaute Merge-Funktion mal drüber jagen. Zeit: 1/4 Zigarettenlänge
1: Entzippen weil ich gerne die Zeitaufwand messen wollte. 2: So, ich habe jetzt die MySQLdumper runter geladen und die Videos dazu mir angeschaut. Wie gehe ich jetzt vor? muß ich den Inhalt des Ordners MySQLdumper wo auf dem Server hochladen? Hauptverzeichnis? 3: Was ist mit Cronjob? Sollte das eine Funktion evtl. in dem Packet von 1&1 sein?
cron job (Link nur für registrierte Nutzer sichtbar.) macht was man ihm sagt wann man ihm sagt für einen (Link nur für registrierte Nutzer sichtbar.)
Ja Danke. Die Videos habe ich schon angeschaut. Testweise habe ich den MySQLdumper auch auf localhost installiert. Es funktioniert wunderbar. Mein Packet bei 1&1 hat die Funktion Cronjobs. Es muß per SSH via Putty gemacht werden. Werde ich mich am Wochenende damit vertraut machen. Nochmals vielen Dank für den Rat. Es erleichtert einiges.
Ich kenne kein Shop-System (z.B. OXID, Shopware) das anders arbeitet.. Auch da werden die diversen verendeten Bildgrößen aus dem Master-Bild neu berechnet und abgespeichert...
Oder die hier vorgestellte neue Funktionalität verwenden... Da muss man nach Änderung von z.B. Bildgrößen einfach die vorhandenen Bilder löschen (außer im Verzeichnis "original_images", dann werden die bei ihrer Anforderung neu erstellt, das "Imageprocessing" ist überflüssig.
Ich habe die bisher verwendete "application_top.php" durch eine minimale "application_top_get_img.php" ersetzt, um für diese Funktion überflüssigen massiven Overhead zu vermeiden.
Hallo Avenger! Tolles Tool! Habe die Ursprungsversion schon im Einsatz. Habe aber trotzdem eine kurze Frage, hoffentlich nicht zu simpel, bin aber kein Fachmann. Neben der von Dir jetzt noch hinzugefügten "application_top_get_img.php" lasse ich die bestehende "application_top.php" auch im Shop, d. h. es werden beide Dateien benötigen, richtig? Ich danke Dir für eine kurze Info!
Ja, natürlich. Die neue Version ist nur für diesen speziellen Zweck und zur Vermeidung dafür unnötigen Overheads gedacht.
Dieses Prozess stört mich überhaupt nicht. Ich vermute, dass die Bilder mussen ja umberechnet und in andere Größen gespeichert werden. Was mich stört ist: 1: ich kann nicht alle Bilder auf ein mal hochladen und bei Artikeln die Ordneradresse auf dem server eingeben? 2: Wenn ich für zwei Artikeln das selbe Bild eingebe wird von einem Bild eine Kopie gemacht, umbenant und nochmals gespeichert!! Am Ende habe ich jeder Menge Kopien von einem Bild mit unterschiedlichen Namen. Und genau diese beide Probleme sind z.B. in Joomla andres geregelt. Bitte keine Mißverständnisse. Ich finde Gambio bei weitem Anwenderfreundlicher als XTC (Die andere Shopsoftware was du erwähnt hast kenne ich nicht). Aber ich glaube die beide o.g. Probleme sind keine kleine Probleme, da man nach ein Paar jahren den Überblick über die Bilder verlieren wird. Es dürfte nicht schwer sein diese funktionen zu verbessern! Oder?
Man kann alle Bilder auf einmal hochladen, macht man ja auch beim CSV import so. Da steht der Bildname in der Tabelle und ich lad alle Bilder in den originale Ordner - imageprozessing durchlaufen lassen, fertig. Also mal ehrlich, was interessiert es mich ob ich ein Bild 1mal oder 50mal auf dem Server liegen habe? Heutzutage is doch mehr als genug Platz auf einem Webspace dafür. Gibt aber möglichkeiten unbenutzte Bilder zu löschen. Da gibts doch was von Ratio.. Ähh Holger