Moin, Leute!
Ich bin vor Kurzem von Windows mit nem dicken Storage Pool auf Ubuntu mit ZFS gewechselt. In beiden Fällen hatte ich keine Datenresilienz, da ich viel Platz benötigte und die Daten auch nicht allzu heilig sind bzw. wiederbeschafft werden können. Später wollte ich das zwar mal ändern, aber irgendwie kam es nie dazu.
Wenn unter Windows eine Platte ausfiel, waren die darauf befindlichen Daten verloren bzw. die Dateien futsch, die dort zum Teil abgelegt wurden. Das Entfernen der defekten HDD war aber nie ein Problem.
Mit ZFS irgendwie schon. Eine meiner Platten meldet etliche Lesefehler, beim Scrub wurden ein Dutzend dauerhafte defekte Dateien gemeldet. Die habe ich alle gelöscht (keine Ahnung, ob das irgendeinen Effekt hat). Gelistet werden die übrigens noch immer (z. B. mediapool:<0x10f00>, mediapool:<0x10e09> ...).
Versuche ich nun die defekte Platte mit remove zu entfernen, bricht der Vorgang nach wenigen GB ab, vermutlich wegen der Lesefehler.
Was ist denn aber die Alternative? Warten, bis die Platte komplett versagt und dann noch viel verlorengeht? Das kann doch nicht Sinn der Sache sein. ☺ Ich wurde sie gerne im noch funktionstüchtigen Zustand aus dem Pool nehmen und die Daten, die nicht gelesen werden können, sollen halt verworfen werden. Einzelne Platten zu verlieren, habe ich einkalkuliert, dass der gesamte Pool flöten geht, wäre aber schon eine mittelschwere Katastrophe.
PS: Ich bin eine absolute Linux-Laie und bin nur aufgrund der Stabilität zu Ubuntu gewechselt. Mein Server ist ein reines Datengrab.
Danke im Voraus! ☺
Ich bin vor Kurzem von Windows mit nem dicken Storage Pool auf Ubuntu mit ZFS gewechselt. In beiden Fällen hatte ich keine Datenresilienz, da ich viel Platz benötigte und die Daten auch nicht allzu heilig sind bzw. wiederbeschafft werden können. Später wollte ich das zwar mal ändern, aber irgendwie kam es nie dazu.
Wenn unter Windows eine Platte ausfiel, waren die darauf befindlichen Daten verloren bzw. die Dateien futsch, die dort zum Teil abgelegt wurden. Das Entfernen der defekten HDD war aber nie ein Problem.
Mit ZFS irgendwie schon. Eine meiner Platten meldet etliche Lesefehler, beim Scrub wurden ein Dutzend dauerhafte defekte Dateien gemeldet. Die habe ich alle gelöscht (keine Ahnung, ob das irgendeinen Effekt hat). Gelistet werden die übrigens noch immer (z. B. mediapool:<0x10f00>, mediapool:<0x10e09> ...).
Versuche ich nun die defekte Platte mit remove zu entfernen, bricht der Vorgang nach wenigen GB ab, vermutlich wegen der Lesefehler.
Was ist denn aber die Alternative? Warten, bis die Platte komplett versagt und dann noch viel verlorengeht? Das kann doch nicht Sinn der Sache sein. ☺ Ich wurde sie gerne im noch funktionstüchtigen Zustand aus dem Pool nehmen und die Daten, die nicht gelesen werden können, sollen halt verworfen werden. Einzelne Platten zu verlieren, habe ich einkalkuliert, dass der gesamte Pool flöten geht, wäre aber schon eine mittelschwere Katastrophe.
PS: Ich bin eine absolute Linux-Laie und bin nur aufgrund der Stabilität zu Ubuntu gewechselt. Mein Server ist ein reines Datengrab.
Danke im Voraus! ☺
Code:
NAME STATE READ WRITE CKSUM
mediapool ONLINE 0 0 0
sdc ONLINE 874 0 0
sdf ONLINE 0 0 0
sde ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
sdd ONLINE 0 0 0
errors: Permanent errors have been detected in the following files:
mediapool:<0x10f00>
mediapool:<0x10e09>
mediapool:<0x3013>
mediapool:<0x10f28>
mediapool:<0x10c43>
mediapool:<0x10256>
mediapool:<0x475b>
mediapool:<0x10ea4>
mediapool:<0x10ab6>
mediapool:<0x10ecc>
mediapool:<0x85f7>
Code:
pool alloc free read write read write
---------- ----- ----- ----- ----- ----- -----
mediapool 25,9T 6,80T 3 13 16,5M 16,6M
sdc 4,97T 497G 1 0 16,5M 3,38K
sdf 4,80T 671G 0 1 1,71K 3,28M
sde 3,67T 1,78T 0 2 2,29K 3,32M
sda 4,35T 1,11T 0 2 1,53K 3,36M
sdb 4,62T 851G 0 2 2,59K 3,29M
sdd 3,51T 1,94T 0 3 3,33K 3,38M
Zuletzt bearbeitet: