2 Server konsolidieren (mit sehr großen Datenbanken)?

Hallo Plex Ninjas!

heute würde ich gerne Euer geschätztes und langjähriges Experten-Wissen anfragen, um bei diesem aktuellen Thema weiterzukommen:

es sollen 2 separate Plex-Server (welche auf einer Hardware als Docker-Continer laufen) konsolidiert werden.
Die Crux an dem Vorhaben ist, dass beide Server sehr(!) große Datenbanken, sowie Metadaten-Verzeichnisse haben.

Server A ist hat nur Audio (Datenbankordnergröße etwa 20GB inkl. Music Analysis. Lib:8GB, Blob:10GB )
Server F hat nur Filme/Serien (Datenbankordnergröße etwa 8GB. Lib:2GB, Blob6GB )

Beide haben mehrere Bibliotheken und laufen bislang recht stabil und zügig.

Die Größe der Metadaten habe ich nicht gemessen, aber die Größe der kompletten Plex Ordner ist jeweils: 180GB (A) und 2TB (F).

Soweit sogut.

In den Einstellungen → Mediathek → Datenbank Cache Größe (MB)
sind jedeils: 20000 (A) und 10000 (F) eingetragen, so dass ich den neuen Wert bei 30000 ansetze. Vielleicht eher 40000.

Ich habe mich, aufgrund der Tatsache, dass ich keinen offiziellen Weg gefunden habe, 2 Server mitsamt Datenbanken+Metadaten zu mergen, dazu entschlossen, die Daten von Server A komplett auf den neuen Server zu kopieren und die Daten von Server F neu einlesen zu lassen, da es insgesamt weniger Filme/Serien/Episoden sind, als Musikstücke und somit wohl schneller gehen sollte, die nun neuen Metadaten zu generieren und abzuspeichern.

Falls es hier einen bequemeren Weg geben sollte, habe ich ein offenes Ohr!

Es interessiert mich vor allem, ob beim neuen Server Leistungseinbußen zu erwarten sind, aufgrund der nun riesigen Datenbank und Verwaltungsszenarien!

Die Power des Servers mit 256 GB RAM und 128 2GHz Kernen, auf dem bislang beide Server einzeln liefen war ausreichend bei dem alten Szenario. Die Daten lagen und werden liegen auf ausreichend bemessenen NVMEs.

Ich weiss allerdings aus langjähriger Erfahrung, dass die Datenbankzugriffe und Datenbankzugriffszeiten bei Plex immer ein selsibles Thema waren.

Ergo mein Posting ob es hier Lebenserfahrung eurerseits gibt oder gar Tipps!

Ich wäre sehr verbunden!
Eine schönes Wochenende noch!

Keine Ahnung was A und F sein soll. Aber die DB-Cache Größe bezieht sich nicht auf die Größe der .db files. Das ist kein Datei-Cache. Sondern der enthält die Ergebnisse der letzten Abfrage-Sessions, von denen es selbst nur beim Durchstöbern schnell etliche auf einmal geben kann. Selbst bei extrem großen DBs sollte man hier nicht über 40 oder 60 MB hinaus gehen, sonst wird dir der RAM so was von knapp und die Geschwindigkeit geht nach unten statt nach oben.

Danke f.d. Auskunft.

Server A und Server F, wie oben im Text angegeben, sind gemeint. Mehr nicht.

Du sagst also, dass dieser Eintrag nur relevant ist, wenn es um Abfrage-Sessions geht.
Gut, damit kann ich etwas anfangen. Nicht jedoch mit der Aussage “extrem großen DBs”. Kannst Du hier größen nennen?
Woher weiss ich überhaupt, dass ich große oder kleine DBs habe? Was sind Richtwerte oder Vergleichswerte?

1 Like

Danke f.d. Link.
Das Tool von @ChuckPa mag sehr nützlich sein und mit deinen Erklärungen bzgl. “DB-Cache Größe” weiss ich nun, dass mein Ansatz mit der Vergrößerung des Wertes, überdacht -und vor allem- getestet werden muss.

Die Frage, ob ich eine große oder kleine DB habe beantworte ich mir dann mal selber mit “ja”. ;-D

Muss wohl jeder eigene Erfahrungen sammeln bei diesem Thema. Wie immer…

This topic was automatically closed 90 days after the last reply. New replies are no longer allowed.