gibt es für die Plex Datenbank eine Größen Beschränkung oder der gleichen?
In den Logs finden sich derzeit häufig folgende Warnmeldungen:
May 03, 2019 07:28:51.557 [0x7f9cfa9e2700] ERROR - SQLITE3:0x10, 13, statement aborts at 11: [delete from fts4_metadata_titles] database or disk is full
Festplattenplatz ist genug vorhanden.
PMS: Version 1.14.1.5488 (Ubuntu)
Das Herunterladen der Protokolle bricht mit einer 500er Fehler ab, daher hier die PMS logs einzelnPMS logs.zip (1.3 MB)
Die Verhalten tritt auf seit dem ich vor 2 Tagen begonnen habe Foto Uploader mit 4 iOS Geräten zu nutzen sowie eine Foto Bibliothek zu erweitern.
Wie groß ist derzeit dein Plex data folder?
Wurde der vom Standardort auf einen anderen Datenträger ausgelagert?
Wenn ja, welches Dateisystem wird auf diesem Volume benutzt?
Es wurden ca. 2500 Fotos hinzugefügt (iOS Foto Uploader über die Plex App). Insgesamt umfasst die Bibliothek ca. 27.000 Bilder
Der Plex Data folder umfasst incl. Vorschaubilder ca. 237 GB.
Nein, die Datenbank und der gesamte Plex Ordner wurden nicht bewegt. Es handelt sich allerdings um ein Docker System das auf einem lokalem HDD-RAID10 läuft
Ist vermutlich eine interne IP, gehört evtl. einem anderen docker container oder ist sogar die IP des Plex containers. Mit docker inspect "name des plex containers" siehst du die IP des selbigen.
gatedesc scheint zu UPnP zu gehören, kann also auch der Host oder irgendein anderes Gerät in deinem Haushalt sein, welches auf UPnP zugreifen will.
Das ist Teil von NAT-PMP/PCP/UPnP IGD
Damit versucht der Plex Server mehr herauszufinden über das Netzwerk in dem er sich befindet. Vor allem welche Gateways es gibt und wie die öffentliche IP hinter dem Gateway lautet.
Im weiteren Verlauf werden die so erhaltenen Informationen benutzt, um ein automatisches Portforwarding mit dem Gateway/Router auszuhandeln,
bzw. wird die Erreichbarkeit auf der öffentlichen IP Adresse in Zusammenarbeit mit plex.tv von außen getestet.
Wenn ein so kontaktiertes Gerät die angeforderte XML Datei nicht zurück liefert, bedeutet das:
das Gerät ist kein Router
das Gerät ist zwar ein Router, unterstützt aber dieses Protokoll nicht (oder das Protokol ist deaktiviert)
Der Server kann nicht wissen, dass er sich in einem Rechenzentrum befindet. Er geht davon aus, in einem privaten Heimnetzwerk zu laufen.
Ein solches Netzwerk kann sich auch mal verändern. Router werden neu gestartet, Netzwerkkabel werden an- und abgestöpselt, WiFi Adapter werden an- oder ausgeschaltet etc. pp.
Deshalb erfolgt diese Abfrage zyklisch immer wieder.
TL;DR: du kannst die derartigen Meldungen im Log ignorieren (solange du nicht Fernzugriffsprobleme untersuchst).
Gut zu wissen. Danke für die Erklärung. Fernzugriffprobleme habe ich noch nie gehabt, der Server ist zuverlässiger als mein heim NAS…
Was mich wundert ist das die logs immer voll sind von Meldungen die die Datenbank betreffen. Also “busy Database” oder transaction takes 210ms etc.
Die Server sind sehr gut ausgestattet, die Fehler treten auch auf wenn ich mein rclone Deaktiviere und nur mit Lokalen Daten Arbeite…
Mein Server Anbieter meint das die Datenbank beschädigt sei… die tests haben aber nichts ergeben
Ich hab kein Plan von Docker, aber ich schiebe es darauf, wie der Massenspeicher an den Container angebunden ist.
Meine Vermutung ist, dass der Server
virtualisiert läuft (zusammen mit vielen anderen auf der selben Maschine)
der Speicherplatz nicht lokal ist, sondern ebenfalls virtualisiert auf einem SAN liegt
All das zusammen führt zu Unterbrechungen und Verzögerungen in der Abarbeitung.
Für einen gewöhnlichen Webserver ist das ziemlich schnuppe, aber Plex hat drastisch andere Anforderungen.
Ich denke noch immer das es eine Größen Limitierung gibt…
Ich habe nun meine komplette Foto Bibliothek gelöscht, alles aufgeräumt und optimiert. Die Größe des Plex Data Ordners ist deutlich geschrumpft.
Ich habe nun die Foto Bibliothek neu angelegt und 10k Fotos mit etwa 105Gb Hinzugefügt. Der Scan läuft nun gute 30min… keine Fehlermeldungen in den Logs zu sehen
Frage: Zwischendurch scheint Plex Bilder die sehr groß sind (<100MB) zu überspringen. Ich konnte bisher keine Info hierzu finden