```bash
while true; do
sleep 1
grep --perl-regexp --quiet '^1*\d\.' /proc/loadavg &&
btrfs balance status /mnt/btrfs/… | grep --quiet 'No balance found on' &&
btrfs balance start -dconvert=raid10 -dlimit=1 /mnt/btrfs/…
sleep 1
done
```
Mögen die Spiele beginnen. 300TB #btrfs von #raid1c3 in #raid10 Konvertieren.
Denke mal in ein paar Monaten wird das erst durch sein.
@nuron @ij
Ja gerade bei den Stichwörtern "unterschiedlicher Größen" und "flexiblen Verbund" ist #btrfs ein sehr gute und zu Empfehlende Wahl.
Aktuell sollte man halt noch nicht #raid5 und #raid6 nehmen.
Man kann #btrfs aber erst mal mit #raid1c4 gründen und später problemlos umconvertieren.
Aktuell habe ich bspw. ein #btrfs mit 60 HDD von 250G-16T im einsatz, das mal als #raid1c4 gestartet hat und aktuell als #raid1c3 läuft.
Sobald #raid6 stabil ist, convertiere ich das dann online um.
1/x
#btrfs #raid5 #raid6 #raid1c4 #RAID1c3
@Timsebimse Ja mit #raid5 und #raid6 bei #btrfs bin ich auch bis heute noch sehr vorsichtig und sehe es nicht als production read an. Anders ist das aber bei #raid1 #raid1c3 und #raidc4 , was ich auch sehr nutzte.
Wenn ich dann mal reid5/6 einsetzte, dann definitive nur für die Daten Chunks und METADATEN und SYSTEM chunks bleiben schön auf raid1c4.
Aber da tut sich ja auch wieder was und ich habe große hoffnung das der bereich, die kommenden Jahre stable wird.
#raid5 #raid6 #btrfs #raid1 #RAID1c3 #raidc4
So sieht eine #heatmap von #btrfs über mehre Jahre mit anfänglich <10 Disk und aktuell 60 #HDD s aus das aktuell 100Tb groß ist. Erst DATA, METADATEN, SYSTEM #raid1c4 und aktuell DATA #raid1c3 und METADATA, SYSTEM #raid1c4
Und bevor ihr Fragt, nein, nicht einen hauch von Problemen bei der Datenstabilität.
1. https://github.com/knorrie/btrfs-heatmap
2. https://codeberg.org/Waimanu/btrfs-heatmap-systemd/src/branch/main
Die freien und grauen Flächen entstehen dadurch das sowohl #snappper als auch #bees im Einsatz sind.
#heatmap #btrfs #hdd #raid1c4 #RAID1c3 #snappper #bees #raid
Ich liebe #BTRFS 💗
Auf dem #NAS eine dritte Platte dazugeschoben. Nun laufen die Dokumente und Fotos statt im RAID1 auf #RAID1c3 (drei Kopien), die Mediensicherungen nun statt RAID0 auf unterschiedlich großen Partitionen nun im RAID1 (auf 3 Platten und unterschiedlich großen Partitionen) und noch eine einfache Partition mit dem Restplatz auf der neuen Riesigen.
Klar, viel Doku lesen und rumprobieren und natürlich hatte ich mich in der Vorbereitung mit TiB (fdisk) und TB (parted) verrechnet...😵💫
Aber alles lief mit 100 % uptime der mounts. Hammer! (auch wenn das ja problemlos anders gegangenwäre. lol)
Selbst das resizing inkl. #LUKS Encryption Layer ging on the fly.
I love #Linux, I love all you developers out there making this possible!!😍🥰😍
FOSS for life🤩🤩
#linux #luks #RAID1c3 #nas #btrfs