@fuchsiii also you propably should consider using at least #DUP, #RAID6 / #ZRAID2 or #mdraid10 (in redundant striping configuration)...
https://en.wikipedia.org/wiki/Non-standard_RAID_levels#DUP_profile
https://en.wikipedia.org/wiki/Standard_RAID_levels#RAID_6
https://en.wikipedia.org/wiki/ZFS#ZFS's_approach:_RAID-Z_and_mirroring
https://en.wikipedia.org/wiki/Linux_MD_RAID_10
Or a file-based (de)duplication approach as well as a database similar to #LTFS indexes and #TapeLibraries do.
https://en.wikipedia.org/wiki/Linear_Tape_File_System
https://en.wikipedia.org/wiki/Tape_library
https://en.wikipedia.org/wiki/Hierarchical_storage_management
https://en.wikipedia.org/wiki/Amanda_(software)
#mdraid10 #dup #tapelibraries #ltfs #zraid2 #raid6
Irgendwas ist im letztem Jahr mit #Btrfs passiert. Die letzten Tage erfolgreich ein #RAID6 mit 8 Devices repariert bei dem einew total ausgefallen ist, eines immer wieder am sterben war und wärend der Reparatur ein weiteres gestorben ist.
Das hätte das FS vor mehr als einem Jahr noch Nicht im Ansatz überlebt.
@nuron @ij
Ja gerade bei den Stichwörtern "unterschiedlicher Größen" und "flexiblen Verbund" ist #btrfs ein sehr gute und zu Empfehlende Wahl.
Aktuell sollte man halt noch nicht #raid5 und #raid6 nehmen.
Man kann #btrfs aber erst mal mit #raid1c4 gründen und später problemlos umconvertieren.
Aktuell habe ich bspw. ein #btrfs mit 60 HDD von 250G-16T im einsatz, das mal als #raid1c4 gestartet hat und aktuell als #raid1c3 läuft.
Sobald #raid6 stabil ist, convertiere ich das dann online um.
1/x
#btrfs #raid5 #raid6 #raid1c4 #RAID1c3
@Timsebimse Ja mit #raid5 und #raid6 bei #btrfs bin ich auch bis heute noch sehr vorsichtig und sehe es nicht als production read an. Anders ist das aber bei #raid1 #raid1c3 und #raidc4 , was ich auch sehr nutzte.
Wenn ich dann mal reid5/6 einsetzte, dann definitive nur für die Daten Chunks und METADATEN und SYSTEM chunks bleiben schön auf raid1c4.
Aber da tut sich ja auch wieder was und ich habe große hoffnung das der bereich, die kommenden Jahre stable wird.
#raid5 #raid6 #btrfs #raid1 #RAID1c3 #raidc4
So another update from me, because sometimes things go slow. I've booted a #NixOS live image and the #badblocks program is running a check of my four 4TB drives (been running for 86 hrs and done 84% I think the last time I checked).
I did change my decision to use #NILFS2 & #RAID6. After deliberate consideration I've switched my choice to #ZFS with #RAID10.
— no longer NILFS2 because it doesn't have compression and ZFS even includes the kitchen sink
- 1/2
#100daysofhomelab #Day4of100 #nixos #badblocks #nilfs2 #raid6 #zfs #raid10
So after more reading tonight for my *BACKUP* server (that will be its main purpose) I have decided to:
— create a 4 disk #RAID6 array with #mdadm
— have it use #NILFS2 as its file system (with continual #checkpoints and manual #snapshots)
— use @nixos_org as OS
I understand it have a performance hit, from both these decisions, but this will be the biggest part in my backup strategy.
TBD:
— filesystem for OS on SSD :thaenkin:
#100daysofhomelab #Day3of100 #raid6 #mdadm #nilfs2 #checkpoints #snapshots
Alternativen zu #raid6 mit besserer Performance bei gleichbleibender Ausfallsicherheit?