Ja, ich meinte den kompletten Plex Ordner. Von dem erzeuge ich regelmäßig Backups. Das DB File hat auch nur ein paar hundert MB.
Ja klar, mir war das schon klar das es nicht bösartig ist
nur ich machte ja immer ein Backup des ganzen Ordners, war schon 2x froh drum. Nur das eben diese eine Datei solche Probleme verursacht hat und man das nie gemerkt hat das der seit fast 1 Jahr keine Backups machte und manches nicht sauber lief, fiel nur nie auf, verstehe ich einfach nicht, da könnte wenigstens was in den Logs stehen, wie bei Tautulli, da merkt man es schnell wenn die Datenbank einen Schuss hat. Den ganzen Ordner kopiere ich wie geschrieben eh wöchentlich auf eine externe SSD von beiden Servern, so hab ich da sicher nie Probleme wenn mal was ist.
Wenn du den alten Ordner überschreibst, kannst du ja eben sehr wohl ein Problem bekommen. Deshalb der Vorschlag, Snapshots anzulegen und eine gewisse Zeit aufzuheben. So kannst zur letzten funktionierenden Sicherung zurückgehen. Sonst überschreibst du dir irgendwann dein Backup mit der kaputten DB, so wie in deinem aktuellen Fall.
ja gut die Frage wäre eben was man da alles sichern müsste so. von den ganzen fast 300 GB will ich das schlicht nicht machen. Solange es nur diese Datei ist, wäre das ja keine grosse Sache, nur dazu habe ich nichts wirkliches gefunden ob es noch mehr benötigen würde oder nur die Datenbankdatei.
Von den 300 GB kannst du ein inkrementelles Backup machen, heißt es werden nur die veränderten Files geschrieben und nicht jedes mal 300 GB. Das geht bei der db, welche ja nur eine einzelne Datei ist, nicht. Rsnapshot macht sowas unter Linux.
Die Metadaten kann man ja neu ziehen, die db-file beinhaltet halt die “wichtige” Struktur des Plexservers imho (und gesehen Status) und kann nicht eben neu aus dem Netz geladen werden.
This topic was automatically closed 90 days after the last reply. New replies are no longer allowed.