Ich mache Backups auch nur mit einem SyncTool bzw. einfach mit Robocopy.
Da in letzter Zeit alle soviel Datenintegritätpanik schieben und ich seit einer Weile mit 6 TB drives und NAS unterwegs bin, habe ich auch mal angefangen meine RAWs mit Redundanz zu schützen.
Was hilft schon die Checksumme. Oh ist kaputt ... hätte wohl auch so gemerkt.
Vorteil ist hier, dass Dir die Software nicht nur sagt, dass eine Datei defekt ist oder komplett fehlt(!).
Es kann diese auch reparieren oder gar wiederherstellen und zwar nicht durch ein zusätzliche Backup sondern durch Mathematik.
Software:
https://multipar.eu/
Diese freie Software ist in anderen Bereichen des Internets millionenfach erprobt und die Sicherungsfiles sind nicht proprietär. Es gibt auch andere SW, die die versteht.
Software, die diese Files prüft gibt es sogar z.B. für Synology NAS.
Wenn man partout will, kann man sich also einen zyklischen Check für das NAS skripten. Das ist was für Fortgeschrittene scheint mir
Man kann einfach ein Verzeichnis oder Files auf das Tool werfen und es werden Recorveryfiles erstellt. Je nach Menge (wird angezeigt) können die Fehler und Files wiederherstellen.
Ich erstelle die Dateien auf dem Original neben den RAWs und die wandern dann automatisch mit ins Backup.
Viel Platz belegt das ganze auch nicht, es kann in einem kompletten Set genauso viel an Daten wiederhergestellt werden, wie man den Recoveryfiles gibt. D.h. Schützt man RAWs, reicht es wenn die Dateien so groß sind wie das größte RAW. Wie gesagt, die SW hilft beim Einstellen davon.
Ist easy auch wenn die Settings im ersten Moment recht viel aussehen.
Erkläre ich gerne bei Bedarf.
Nachtrag ZFS:
Bevor ich dann doch ein Synology kaufte, hatte ich an Selbstbau gedacht und hatte mich auch mit ZFS intensiv beschäftigt.
Ich habe mir das ECC-Problem so erklärt:
ZFS kann anscheinend nicht erkennen, ob die berechneten Paritätsdaten selbst und alleine fehlerhaft sind. (ist bei Multipar kein Problem).
Außerdem macht ZFS periodisch ein Scrubbing und überprüft alle Daten im Filesystem.
Tritt ein Speicherfehler im RAM beim Lesen der Paritätsdaten auf, erkennt ZFS eine Abweichung von Paritätsdaten und Nutzdaten und repariert die (eigentlich richtigen Nutzdaten) mit den (leider falschen) Paritätsdaten.
Darüberhinaus werden Nutzdaten und Filesystemdaten (Journal z.B.) gleich behandelt.
Das führt insgesamt dazu, dass ein System mit einem plötzlich neu auftretenden aber permanenten Speicherfehler nicht nur neue Dateien fehlerhaft auf die Platten bringt sondern auch beim nächsten Scrubbing das Filesystem und alle Daten gleich komplett zerstört.