• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Mitmachen beim DSLR-Forum Fotowettbewerb September 2025.
    Thema: "Straßenfotografie s/w"

    Jeden Monat attraktive Gewinnprämien, gesponsert von unserem Partner PixelfotoExpress.
    Alle Infos zum September-Wettbewerb hier!
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Speicher-System mit Fokus auf (Langzeit-)Archivierung

Dann muss man halt nach einigen Jahren eine neues Speichermedium besorgen und die Daten wieder überspielen.

Das nützt dir gar nichts. Wenn bei einer Datei unbemerkt ein Bit gekippt ist, überspielst du diesen Fehler nämlich mit. Grundbedingung ist ein Katalog, der für jede archivierte Datei eine Prüfsumme speichert und bei einem Datenträger-Check Alarm schlägt, wenn diese Prüfsumme nicht mehr stimmt. Und dieser Katalog sollte nicht gerade auf einer sqlite-Datenbank liegen- die ist bei einem gekippten Bit nämlich hin.
 
Ich habe es z.T. schon oben beschrieben:


- ich habe:

- 1 interne HD für die Sicherung
- 1 externe HD an USB für die Sicherung

- 2 externe NAS


- meine Fotos werden chronologisch abgelegt

(- meine anderen Dateien haben überschaubare Größen und werden in themenbezogenen Verzeichnissen angelegt)

- ich sichere (wöchentlich die thematischen Verzeichnisse und) die chronologisch neuen Fotoverzeichnisse

- bei besonderen Ereignissen werden die betreffenden Daten unmittelbar nach dem Übertragen auf den PC zusätzlich auf den Sicherungsplatten gesichert

- gesichert wird mit dem Total Commander auf der internen und externen Festplatte

- neuerdings wird nach dem Kopieren ein bitweiser Vergleich der aktuell gesicherten Daten durchgeführt

- die Sicherungsaktivitäten werden manuell tabellarisch erfasst


- 1 x monatlich erfolgt der Übertrag der in diesem Monat gesicherten Daten auf die beiden NAS. Es schließt sich jeweils wieder der bitweise Vergleich an.

- alle Jahre werden die synchronen Archive auf den beiden NAS bitweise miteinander verglichen

- alle 3...4 Jahre wird nach dieser Prüfung das ältere NAS- Gehäuse mit 2 neuen HDs bestückt bzw. ersetzt

- das Archiv eines der "alten" NAS wird auf das neueste NAS kopiert und die Daten werden bitweise verglichen

- die Sicherungs-NAS laufen nicht 24/7/365, sondern werden nur zum Sichern eingeschaltet. Die ausgebauten Festplatten bleiben, ordentlich mit Datum des Austausches beschriftet als Reserve im Schrank


Derzeit läuft bei mir der 3. HD-Satz in den NAS.

Der Zwischenschritt über die interne und die USB- Platte wird wegfallen, wenn ich den stationären Bildbearbeitungs- PC endgültig ausgemustert habe und für die Bildbearbeitung auf Notebook + externem Monitor umgestiegen bin.


Gruß
ewm
 
Die heutzutage sinnvollste Variante ist das Speichern bei einem externen Anbieter (aka. 'Cloud'), dann hat der die Probleme mit der Datenintegritaet und den (zusaetzlichen) Backups am Hals.
 
Die heutzutage sinnvollste Variante ist das Speichern bei einem externen Anbieter (aka. 'Cloud'), dann hat der die Probleme mit der Datenintegritaet und den (zusaetzlichen) Backups am Hals.

Genau und wenn die Daten weg sind sind sie weg. Der saagt dann einmal kurz entschuldigung weil in den AGB steht dass er dafür nicht haftet.

Das nützt dir gar nichts. Wenn bei einer Datei unbemerkt ein Bit gekippt ist, überspielst du diesen Fehler nämlich mit. Grundbedingung ist ein Katalog, der für jede archivierte Datei eine Prüfsumme speichert und bei einem Datenträger-Check Alarm schlägt, wenn diese Prüfsumme nicht mehr stimmt. Und dieser Katalog sollte nicht gerade auf einer sqlite-Datenbank liegen- die ist bei einem gekippten Bit nämlich hin.


Ja das ist wie mit der Milch im Kühlschrank die kippt auch nach einer Zeit.
 
Nein Danke. Wenn der externe Anbieter "überraschenderweise" nicht mehr will oder kann, ist alles weg. Da vertraue ich lieber auf die eigene brain- und hardware. :D

Natürlich sollte das nicht das einzige Backup sein, oder anders gesagt, wenn dann alles weg ist, ist es ein guter Zeitpunkt gewesen, die Strategie zu überdenken. Aber wie gesagt, die Chance, dass man selbst eine brauchbare Langzeitlösung auf die Beine gestellt bekommt, ist verschwindend gering.
 
... Aber wie gesagt, die Chance, dass man selbst eine brauchbare Langzeitlösung auf die Beine gestellt bekommt, ist verschwindend gering.

Was verstehst Du unter Langzeitlösung?

Ich habe seit meinem Umstieg vom C64/C128 auf den PC in 1990 noch nicht eine Datei verloren.

Erste Scans von Papierbildern aus dieser Zeit, Photograbs von Hi8-Videos bis hin zu den ersten Fotos mit der Olympus Camedia 1400L in 98 haben die Jahre unbeschadet überstanden.

Zunächst per Sicherung auf CD, DVD, DVD-RAM, BR bis hin zu NAS heutzutage.

Gruß
ewm
 
Was verstehst Du unter Langzeitlösung?

Alles >10 Jahre.

Ich habe seit meinem Umstieg vom C64/C128 auf den PC in 1990 noch nicht eine Datei verloren.

Das ist schön für dich, aber genau dein Beispiel weiter oben zeigt, warum man das nicht selbst machen will.
Der nötige Aufwand, die Integrität sicherzustellen ist nichts, was ich irgendeinem 'Heimuser' empfehlen würde, da nunmal heutzutage einfacher und billiger zu haben.
 
Lange Jahre in der EDV haben mir gezeigt:

"Wenn Du Daten verlierst, bist Du selber schuld."

Man kann nicht einfach Daten auf irgendeinem Medium (Band, Platte, Stick, usw) speichern und erwarten, daß die nach 20 Jahren noch lesbar sind.

Ich hab hier noch Fotos meines Großvaters aus dem Burenkrieg (1899-1902) rumliegen. Ich bezweifle stark, daß meine Fotos auf irgendeinem magnetischem Medium ohne dauerndes "Bauchpatscheln" über 100 Jahre durchhalten. Soviel zum Fortschritt der Technik.
 
Hallo,
ich schließe mich der vielfach hier geäußerten Meinung an, dass ein verteiltes und mehrfaches Backup sinnvoll ist.
Ich finde es albern, über die Art des Backup zu diskutieren - jedes hat limits.
Meist ist es so, dass das Platzangebot der aktuellen Backup-Version nicht auf Dauer für ein komplettes Backup reicht, was automatisch zu einem Ersatz der Backup-Medien (Festplatten sind derzeit die Favoriten) führt. Diese Strategie wird die einzig erfolgreiche sein - letzten Endes hat jedes Medium eine beschränkte Haltbarkeit.
Ich habe da auch keine besondere Eitelkeit, was meine Aufnahmen angeht - wenn jemand daran interessiert ist, wird er bemüht sein, diese zu erhalten, anderenfalls ist es nicht schlimm, wenn sie dank einer Unachtsamkeit meinerseits verloren gehen - ich mach' das als Hobby.
Ich hatte schon geschrieben, dass ich einen Heimserver fahre (der bietet ein paar Specials mehr). Auf diese Weise habe ich meine Bilder in beiden Formaten auf mehr als zwei Medien an wenigstens zwei Orten gespeichert; die Medien sind bei Ausbau mit aktueller Hardware lesbar (das hat mich abgeschreckt, ein NAS zu kaufen, das nicht billiger als meine Variante ist).
Irgendwann muß ich den Server aufrüsten, womit ich wieder die Haltbarkeit der Daten erneuere. Ohne Backup-Software (derzeit ist es das WHS-backup, bei c't gibt es das "Backup für Faule", Kommandozeilen-Freaks unter Linux schwören vielleicht auf dd usw. usf.) würde ich nicht arbeiten wollen, das einfache Kopieren per Explorer ist tatsächlich keine Option zur Archivierung großer Datenmengen.
 
Robocopy ist eine schöne Sache, aber man sollte bedenken, dass diese Funktion bei NAS-Systemen nur eingeschränkt funktioniert.
 
Ich sichere auf eine NTFS-formatierte Festplatte und auf ein NAS.
Dabei möchte ich nur per robocopy veränderte Daten sichern. Von NTFS auf NTFS geht das. Da NAS-Systeme meist auf exFAT-formatiert sind, geht das so nicht. Bei der Sicherung habe ich eingestellt, dass alle Daten die in den letzten 30 Tagen verändert worden sind gesichert werden. Das kann auch damit zusammenhängen, dass ich das NAS nicht über einen Laufwerkbuchstaben sondern per UNC-Pfad anspreche.
 
Da ich NAS meide wie der Teufel das Weihwasser habe ich mit robocopy beim sichern vom internen HDD auf den externen HDD und davon weiter auf einen zweiten externen HDD kaum Probleme:

>>>
rem kopieren wd elements auf intenso memory box - 25.11.2016 -

rem per /xd drei verzeichnisse die robocopy zum hängen brachten
rem nacheinander vom kopieren ausgeschlossen.

robocopy "L:" "M:" /E /mir /dst /fft /xd "$recycle.bin" "de0d2e98ad95555b92b40174cbe1cb" "System Volume Information"
<<<

Die Sicherungen laufen alle per von Hand angestoßenem batch. Automatismen vergißt man gerne und rechnet damit, daß sie problemos ihr Werk tun. Wenn das aus irgendeinem blöden Grund nicht der Fall ist, hat man Pech gehabt.

Zum Thema Langzeitarchivierung fällt mir gerade auf, daß ich die WD Elements schon lange im Einsatz habe. Vielleicht ist es an der Zeit die mal auszutauschen.
 
Zuletzt bearbeitet:
binärvergleich per dircomp im batch-modus hilft dem Privatanwender bei Bedarf kostenfrei.

Eine Firma mit dem FA im Nacken sollte das aber anders sehen, speziell wenn sie Buchhaltungsdaten in Bildform digitalisiert. Aber das ist ja hier nicht das Thema.
 
... Da NAS-Systeme meist auf exFAT-formatiert sind, geht das so nicht...
Ich hatte noch mit keinem NAS zu tun, das mit exFAT formatiert war. Nach meinem dafürhalten hat exFAT auch nichts auf einer Festplatte zu suchen, das wurde ausschließlich für USB-Sticks und Speicherkarten entwickelt. Jedes halbwegs vernünftige NAS sollte sich auch mit NTFS formatieren lassen.
 
WERBUNG
Zurück
Oben Unten