• Neuer Gutscheincode unseres Partners Schutzfolien24:
    DSLR-Forum2025
    Dauerhaft 10% Rabatt auf alle Displayschutzfolien und Schutzgläser der Eigenmarken
    "Upscreen", "Screenleaf", BROTECT" und "Savvies".
    Der Code ist für alle Geräteklassen gültig.
  • Stimmt ab über die Sieger des DSLR-Forum Fotowettbewerbs August 2025.
    Thema: "Kurven"

    Nur noch bis zum 31.08.2025 23:59!
    Jeder darf abstimmen!
    Zur Abstimmung und Bewertung hier lang
  • In eigener Sache!

    Liebe Mitglieder, liebe Besucher und Gäste
    ich weiß, es ist ein leidiges Thema, aber ich muss es ansprechen: Werbung, Werbeblocker und Finanzierung des Forums.
    Bitte hier weiterlesen ...

  • Nicht erreichbare Adressen im Benutzerkonto
    Wir bekommen zurzeit eine große Anzahl an E-Mails, die das System zum Beispiel als Benachrichtigungen an Nutzer verschickt,
    als unzustellbar zurück, weil z.B. die Adressen nicht erreichbar sind oder das Postfach gar nicht existiert.
    Stellt doch bitte sicher, dass die Benachrichtigungen, die ihr vom System erwartet, auch zugestellt werden können.
    Nicht erreichbare E-Mail-Adressen sind dazu wenig hilfreich.
    Danke!
WERBUNG

Storage Lösung (20TB) unter Mac?

welchen Computer nutzt Du?
Welche Schnittstelle?
Auf SSD ist ja klar ne andere Nummer.

Da erhebt sich die Frage nach der Bearbeitung der Bilder.
Die aktuellen Bilder werden von der Speicherkarte auf die SSD überspielt und der Katalog erweitert.

Ich stelle mir folgendes Szenario vor:
Die Daten (also Katalog mit Bearbeitungsschritten) werden regelmäßig von der SSD auf eine HDD gesichert (1. Datensicherung).
In CO werden die Bilder von der SSD bearbeitet.
Zu einem Zeitpunkt x muss der Verweis zum Original auf die HDD gehen. Die Originale sind ja schon dort und können von der SSD gelöscht werden, wodurch wieder Platz für neue entsteht.
Wie kann das automatisiert werden?
Das wäre genial und würde doch alle bisherigen Überlegungen in den Schatten stellen.
Aber wie kann denn ein Katalog so was verwalten? Geht glaube ich doch so nicht.

Dann bräuchte man mid. zwei Kataloge.
Aber eigentlich reicht die Geschwindigkeit der HDD, wie ich bereits oben gesagt hatte und somit erübrigt sich das auch wieder.
 
Zuletzt bearbeitet:
auch wenn die Platte "nur" 160 MB/s übertragen sollte, dann ist doch das auch genug.
Eine meiner Platten schafft keine 100MB/sek. Reicht mir trotzdem, weil nur Backup.
Da muss man nicht ein System runtermachen.
Vergleichen wird man hoffentlich noch dürfen. Vor allem, wenn jemand wissen möchte, ob seine Beobachtung auch von anderen wahrgenommen wurden. Ich jedenfalls bleibe gerne beim Mac.

Im Übrigen sind für mich Computer jedweder Art und Marke immer Werkzeuge. Und mit Werkzeugen bin ich nie verheiratet. ;)
Ist das schlimm? Für mich nicht, weil ich weiß warum.
Nein, ist nicht schlimm. Für mich. Das muss aber nicht für andere gelten.
 
Vergleichen wird man hoffentlich noch dürfen. Vor allem, wenn jemand wissen möchte, ob seine Beobachtung auch von anderen wahrgenommen wurden. Ich jedenfalls bleibe gerne beim Mac.
aber natürlich, das ist ja auch gut so. Aber vielleicht erst mal prüfen, was daheim evt. falsch läuft, bevor sowas gesagt wird. Vielleicht sind die ganzen Codiertools und Sicherheitsaspekte daran Schuld, dass etwas langsamer geht. Vielleicht verträgt sich das ein oder andere tool nicht so mit MacOS, weil es ja mit Win besser läuft.

Daher sollte so nach und nach "aufgerüstet" werden, aber das hat Robert ja sicher auch gemacht.

Im Übrigen sind für mich Computer jedweder Art und Marke immer Werkzeuge. Und mit Werkzeugen bin ich nie verheiratet.
so ist es. Übrigens, ich hatte noch nie einen so sorglosen Umgang mit diesem Zeugs seit ich einen Mac habe. ;)

Alles gut!!
 
Daher sollte so nach und nach "aufgerüstet" werden, aber das hat Robert ja sicher auch gemacht.
Was auch bei mir geschehen ist.
 
Vielleicht sind die ganzen Codiertools und Sicherheitsaspekte daran Schuld, dass etwas langsamer geht. Vielleicht verträgt sich das ein oder andere tool nicht so mit MacOS,
Also ich rede bis jetzt fast immer von On-Board Tools -also Verschlüsselung die mit MacOS kommt.
Andere wie veraCrypt habe ich verworfen, weil die Performance auch schlecht ist und dazu man noch bei mounten immer Root/Admin PWD braucht.

Daher sollte so nach und nach "aufgerüstet" werden,
So richtig verstehen tue ich es nicht was Du so damit meinst :unsure:. Wenn meine Interpretation aber richtig ist, dann war es eben falsch mit dem "nach und nach". Hätte ich nur Ansatzweise den verdacht gehabt, dass APFS für Festplatten total ungeeignet ist und man bei HFS+ die Verschlüsselung abgeschafft hat, wäre der Mac keine Woche bei mir. So habe ich mich zuerst auf die Programme, Migration von Windows nach Mac, Einrichtung von diversen automatischen Abläufen konzentriert.

Da hier eh keine neue Erkenntnisse kommen --- ich habe jetzt noch mal die Plattem mit HFS+ Verschlüsselung formatiert. Die letzten TB an Bildern werden noch übertragen.
Ich hoffe, dass die nächste 1,5 Jahre die Geschwindigkeit nicht merklich schlechter wird. Stand Heute habe ich keine Hoffnung, dass Apple etwas bahnbrechendes bzgl APFS und mechanischen Platten machen wird. Auch kann ich mir nicht vorstellen, dass innerhalb der nächsten 1,5 Jahren die SSD's plötzlich mit 16TB und Größer dazu auch Bezahlbar geben wird.
 
Hast Du mal an folgendes gedacht?

  • FileVault:
    Die Verschlüsselungsfunktion von macOS, die verwendet werden kann, um Daten auf der Festplatte, als als HFS+ formatiert wurde, zu schützen.

  • APFS (Apple File System):
    Das moderne Dateisystem, das macOS 10.13 und neuer verwendet. Es ist das Standarddateisystem für interne Laufwerke.
Verschlüsselung mit FileVault:
  1. Öffnen Sie die Systemeinstellungen: Klicken Sie auf das Apple-Menü und wählen Sie "Systemeinstellungen".
  2. Sicherheit & Datenschutz: Wählen Sie "Sicherheit & Datenschutz" aus.
  3. FileVault: Gehen Sie zum Reiter "FileVault".
  4. Aktivieren: Klicken Sie auf das Schlosssymbol, um Änderungen vorzunehmen, und aktivieren Sie FileVault.

  5. Entsperren: Wenn Sie ein externes Laufwerk verschlüsseln, müssen Sie es möglicherweise entsperren, bevor Sie es mit FileVault verschlüsseln können.

  6. Sicherungskennwort: Erstellen Sie ein Sicherungskennwort, falls Sie Ihr normales Passwort vergessen, wird auf Apple Support erklärt.
Hinweis:
  • Wenn Sie ein Laufwerk mit HFS+ verschlüsseln, wird es weiterhin mit diesem Dateisystem formatiert sein, aber die Daten werden verschlüsselt.

  • Wenn Sie macOS 10.13 oder neuer verwenden, wird für das Startvolume standardmäßig APFS verwendet.
 
Hast Du mal an folgendes gedacht?
Ich habe über sehr viele Sachen nachgedacht :D

FileVault ist zumindest jetzt nicht für andere als die interne "Macintosh HD" gedacht.
Ob das in der Vergangenheit anders war - K.A war ich zu lange weg von Apple. Heute kann man es nur Aktivieren oder deaktivieren. Man kann keine Laufwerke hinzufügen oder entfernen, es wird nur die interne SSD damit und dem T2 Chip verschlüsselt.
 
Apple selbst schreibt, dass FileVault über Festplattendienstprogramm nach Aktivierung für externe Platten mit HFS+ verwendet werden kann.
 
Zuletzt bearbeitet:
Ich habe über sehr viele Sachen nachgedacht :D

FileVault ist zumindest jetzt nicht für andere als die interne "Macintosh HD" gedacht.
Ob das in der Vergangenheit anders war - K.A war ich zu lange weg von Apple. Heute kann man es nur Aktivieren oder deaktivieren. Man kann keine Laufwerke hinzufügen oder entfernen, es wird nur die interne SSD damit und dem T2 Chip verschlüsselt.
lies mal genau durch.
erst aktivieren, dann steht Dir über das Festplattendienstprogramm alles zur Verfügung, auch Verschlüsselung unter HFS+
 
lies mal genau durch.
erst aktivieren, dann steht Dir über das Festplattendienstprogramm alles zur Verfügung, auch Verschlüsselung unter HFS+

Ich habe jetzt eine externe HD gelöscht, neu partitioniert, und alles versucht, da HFS+ mit Verschlüsselung drauf zu bekommen...
Fazit: Es geht nicht.
In den diversen Dokus wird entweder allgemein von Verschlüsselung gesprochen, ohne Nennung des File Systems, oder explizit von APFS und Verschlüsselung. Es wird an verschiedenen Stellen auch darauf hingewiesen, dass bei Verwendung von Verschlüsselung das Filesystem nach APFS gewandelt wird. Mit der Warnung, dass ältere Macs das nicht lesen können etc. pp.

Es gibt ein paar Formulierungen in der Doku, die man anders interpretieren könnte. Zumindest in der deutschen Version.

Zu File Vault habe ich nur den Hinweis auf die Verschlüsselung der internen Platte gefunden, über die Systemsteuerung. Aber nichts, dass darauf schliessen lässt, dass man File Volt auf externen Platten nutzen kann. Und das dies dann etwas anderes ist, als die Verschlüsselung des Filesystems mit APFS.

Ausprobiert habe ich dass alles mit der aktuellen Developer Beta von Tahoe.

Wenn Du, @Gerha, etwas anderes findest, dann lass es uns bitte wissen. Am besten mit ein paar Screenshots zur Erläuterung. Vielen Dank!

--peter
 
lies mal genau durch.
erst aktivieren, dann steht Dir über das Festplattendienstprogramm alles zur Verfügung, auch Verschlüsselung unter HFS+
Gerhard, bitte nur weil Apple in der Qualität längst nicht mehr das ist was sie mal waren....

Selbstverständlich habe ich FileVault seit ich den Mini habe aktiviert. Es betrifft nur die interne Festplatte.
Ohne FileVault kannst Du auch APFS nach wie vor verschlüsseln. Es sind 2 verschiedene Paar Schuhe. FileVault verschlüsselt mit dem T2 Chip, deswegen aus einem heutigen Mac ausgebaute SSD kann in keinem anderen in betrieb genommen werden. Alles andere HFS+ Verschlüsselung (was bis Catalina möglich war) aber auch APFS Verschlüsselung basieren auf Passwort-verschlüsselung und nicht (Chip/ Key). Deswegen kannst Du auch eine externe Festplatte die an einem Mac mit HFS+/APFS Verschlüsselung formatiert wird an jedem anderen (OS Version muss APFS Format als solchen kennen) weiter lesen und schreiben.
Fazit: Es geht nicht.
Catalina war die letzte MacOS Version die den Befehl "diskutil cs convert" kannte. Bei HFS+ Verschlüsselung (wusste ich lange auch nicht) wird mit PV/LV gearbeitet (Physical Volume Group, Logical Volume). Warum - K.A ist halt so.
Apple hat auch bei diskutil die Möglichkeit das Passwort zu wechseln bei HFS+ Platten rausgenommen.
 
Wenn Du, @Gerha, etwas anderes findest, dann lass es uns bitte wissen. Am besten mit ein paar Screenshots zur Erläuterung. Vielen Dank!
ich habe nun alles genauer recherchiert und muss mich entschuldigen.
Bin einigen Mitteilungen im Internet aufgesessen. Hatte auch eine KI generierte Zusammenfassung aller aktuellen Infos direkt übernommen und hier reinkopiert (so), und das war leichtfertig und falsch.
Habe nun Kontakt zu Mike Bombich (CCC Backup) aufgenommen und folgendes erfahren:

Can I encrypt my disks that are formatted with HFS+? HFS+ should remain.
No, Apple removed functionality for encrypting the legacy HFS+ format way back in macOS Mojave. If you want your backup to be encrypted, you should convert it to APFS. We recommend APFS for all CCC destination volumes, even those on rotational storage.
Mike

Man liest immer, auch von Apple, dass bei herkömmlichen Festplatten (HDD) möglichst HFS+ eingesetzt werden sollte. Auch bei diversen Interneteinträgen.
Ist denn APFS auch auf Festplatten die richtige Wahl? Funktioniert das ohne Probleme?

APFS hat auf rotierenden Geräten einen Leistungsnachteil gegenüber dem alten HFS+ Format, der sich auf die Aufzählungsleistung bezieht(der letzte Absatz des Artikels zeigt die wichtige Schlussfolgerung), aber im Allgemeinen ist die Leistung nicht so schlecht, dass man es nicht trotzdem verwenden sollte. APFS hat so viele Vorteile gegenüber HFS+, dass ich APFS immer empfehle, auch für rotierende Festplatten, für jedes CCC-Ziel.

Es gibt jedoch einige rotierende Festplatten, deren Leistung so schlecht ist, dass APFS für diese wahrscheinlich nicht geeignet ist. Ich habe eine Liste dieser Geräte hier auf unserer Website:

Auswahl eines Sicherungslaufwerks: Geräte, die wir nicht empfehlen
Mike

Das was Ihr hier festgestellt hattet ist somit vollkommen richtig.
 
APFS hat auf rotierenden Geräten einen Leistungsnachteil gegenüber dem alten HFS+ Format, der sich auf die Aufzählungsleistung bezieht(der letzte Absatz des Artikels zeigt die wichtige Schlussfolgerung), aber im Allgemeinen ist die Leistung nicht so schlecht,
Da findet sich:

Thunderbolt, Desktop-Gehäuse für externe Festplatte (ohne Festplatte)​

Oyen Novus External USB-C Rugged Desktop Hard Drive Enclosure
Wollte nur anmerken, dass dieses Gehäuse lt. Anschluss und Beschreibung nur USB 3.1, aber nicht Thunderbolt, kann.
 
aber im Allgemeinen ist die Leistung nicht so schlecht, dass man es nicht trotzdem verwenden sollte. APFS hat so viele Vorteile gegenüber HFS+, dass ich APFS immer empfehle, auch für rotierende Festplatten, für jedes CCC-Ziel.
Das kann ich auf Grund von Eigener Erfahrung nicht bestätigen.
Für CCC fahre ich deutlich besseren Ansatz - die Platte selbst ist mit HFS+ formatiert. Auf der Platte habe ich für CCC Backups (Mac selbst, ON1 Einstellungen und Datenbanken und Syncovery Datenbanken - wäre nicht npotwendig weil schon mit Mac gesichert) 3 mit APFS Verschlüsselung erstellte Sparsebundle. Damit habe ich Vorteile von APFS ohne die Nachteile erleben zu müssen.
Wenn ich diese Probleme mit APFS und dazu noch Verschlüsselung bei Teuren Gerätschaften von LaCie oder G-Drive von Sandisk, wir mich niemand noch dazu bringen eine rotierende Festplatte mit APFS zu formatieren. Für mich hat Apple das Thema nicht zu Ende gedacht.
Bin einigen Mitteilungen im Internet aufgesessen. Hatte auch eine KI generierte Zusammenfassung aller aktuellen Infos direkt übernommen
Das ist leider oft unseres Problem - wir suchen nach etwas und schon kommt KI um die Ecke und erzählt etwas was schon lange nicht stimmt.

It's important to understand why we might expect to see performance differences between the two filesystems and when that might impact your use of the filesystem, but this one performance aspect on its own isn't enough reason to avoid it.

Wow, für mich und den Einsatzzweck schon. Hier brauche ich weder Snapshot noch Container noch sonst was. In dem use case zählt die Leistung nichts anderes.

APFS defragmentation is disabled by default, and only lightly documented in the diskutil man page. Apple gives no indication of what this defragmentation feature actually does, in particular whether it defragments filesystem structures. Based on the results of the tests above, however, I would conclude that APFS defragmentation does not cause filesystem metadata to be physically clumped together on the disk.

Das sagt allerdings auch schon viel über die aktuelle Qualität die Apple abliefert.
 
Zuletzt bearbeitet:
Darf ich die letzte Mitteilung von Mike Euch hier darstellen?
Und besonderen Dank an Ernst übermitteln für seine Feststellung.

Hallo Gerhard,

Ich wäre sehr daran interessiert, die Ergebnisse von Leistungstests unter Windows zu sehen (nicht, dass ich die Behauptung nicht glaube, aber ich bin neugierig, wie die konkreten Ergebnisse für verschiedene Dateisysteme unter Windows aussehen würden). Unter macOS hat die Verschlüsselung einen Einfluss auf die Schreibleistung.

Unabhängig von der Verschlüsselung würde ich nicht erwarten, dass ein APFS-formatierter Datenträger beim Schreiben langsamer ist als ein HFS+-formatierter Datenträger. Da ich kein Windows-System habe, habe ich die Leistung von APFS auf dem Mac nie mit der Leistung anderer Formate unter Windows auf derselben Hardware verglichen - ich bin nicht sicher, was man von diesen Dateisystemen erwarten kann.

...

Nachdem ich mir den Forumsbeitrag durchgelesen habe, dachte ich, es wäre vielleicht eine gute Idee, selbst ein paar Leistungstests durchzuführen:

  • Testsystem: 2016 Intel MBP mit Sequoia 15.6
  • Ich habe 32x1,07 GB große Dateien auf dem internen SSD-Speicher meines Testsystems erstellt, insgesamt 34,36 GB.
  • Ich öffnete eine brandneue 10 TB Western Digital Black Festplatte und setzte sie in ein Oyen Novus USB 3 Gehäuse ein
  • Ich habe den CCC so konfiguriert, dass er den Quelldatensatz auf die WD Black-Festplatte kopiert und dabei das Dateisystem auf dem Ziellaufwerk bei jedem Test ändert. [Ich formatierte das Testlaufwerk mit HFS+ verschlüsselt, während es an einen anderen Mac mit Mojave angeschlossen war.]
Ergebnisse:

HFS+: 133s (258MB/s)
HFS+ Verschlüsselt: 229s (150MB/s) (72% länger)
APFS: 133s (258MB/s)
APFS Verschlüsselt: 204s (168MB/s) (53% länger)

Dann habe ich die Aufgaben zum Vergleich mit einer Samsung T7 SSD wiederholt:

HFS+: 40s (859MB/s)
HFS+ Verschlüsselt: 48s (716MB/s) (20% länger)
APFS: 32s (1074MB/s)
APFS Verschlüsselt: 48s (716MB/s) (50% länger)

Es überrascht mich nicht, dass der Leistungsabfall bei der Verschlüsselung bei APFS geringer war als bei HFS+. Die Verschlüsselung der Daten wird von der CPU durchgeführt, und APFS nutzt die Vorteile von Multi-Threading besser als HFS+. Ich kann mich aber nicht erinnern, dass der Leistungsabfall so deutlich war. Es ist schon lange her, aber als ich das letzte Mal die Leistungseinbußen durch die Verschlüsselung getestet habe, dachte ich, sie lägen bei weniger als 5%. Ich habe allerdings keine dokumentierten Zahlen, also werde ich es nicht beschwören 🙂 .

Eine wichtige Sache, die du bei diesen Zahlen beachten solltest, ist, dass bei all diesen Tests eine kleine Menge an Daten auf ein frisch gelöschtes Volume geschrieben wurde. Im Laufe der Zeit, wenn du Dateien zu den Volumes hinzufügst oder von ihnen entfernst, wird der freie Speicherplatz immer mehr fragmentiert. Die Auswirkung dieser Fragmentierung ist bei rotierendem Speicher aufgrund des Suchaufwands (d.h. die Zeit, die der Laufwerkskopf benötigt, um sich physisch zu einem anderen Radius zu bewegen, plus die Zeit, die die Platte benötigt, um sich zum richtigen Sektor zu drehen) deutlicher zu spüren. Die Fragmentierung des freien Speicherplatzes wirkt sich sowohl auf HFS+- als auch auf APFS-Laufwerke aus, hat aber einen größeren Einfluss auf die Aufzählung eines APFS-Laufwerks, da die Dateisystemdaten bei APFS über die gesamte Platte verstreut sind. Die Aufzählung ist nur ein kleiner Teil der Gesamtleistung, aber in bestimmten Szenarien (z. B. bei der Aktualisierung eines Backups, das Millionen von Dateien enthält) kann sie sich deutlich bemerkbar machen. Bei einem Datenträger, der ziemlich große Mediendateien enthält, wirken sich die Auswirkungen der Fragmentierung jedoch gleichermaßen auf APFS und HFS+ aus.

*****

Wenn du noch einmal auf diesen Forumsthread antwortest, bedanke dich bitte bei Ernst für mich:

Wollte nur anmerken, dass dieses Gehäuse lt. Anschluss und Beschreibung nur USB 3.1, aber nicht Thunderbolt, kann.

Ich habe das im Artikel korrigiert.

Mike
 
@Gerha - danke erst mal für Deine Mühe.
Wenn Du mit Mike eh im Kontakt bist, kannst ihn schreiben, dass sein Test ein "Problem" hat.
Mit 30 Dateien wird man es kaum merken. Dafür musste er sagen wir 10000 Dateien in sagen wir 5 MB erstellen, Dann diese Dateien 30 mal verändern lassen, also dass die kleiner/ größer werden und somit neu geschrieben werden. Das ist eben das Problem bei APFS und nicht das einmalige schreiben auf einer Platte.
Das Problem ist hier gut beschrieben.
 
Zuletzt bearbeitet:
Robert, eine kurze Frage: wo liegt Dein Katalog? Auf der internen SSD oder auch auf der Lacie HDD RAID?
Geht es Dir um schnellstmöglichen Zugriff auf alle möglichen Daten oder in der Hauptsache um Bildmaterial?

PS
Der link führt zu einem interessanten Artikel. Danke dafür.
 
Insgesamt hat es nicht zwingend mit Katalogen egal ob C1, LrC, ON1 oder sonst was zu tun.
Aber alle Kataloge liegen auf externen SSD's, nur das Bildmaterial mit Zusatzdateien liegt auf der mechanischer HDD.

Der link führt zu einem interessanten Artikel.
Vor einigen Wochen hatte ich mehr aus "Verzweiflung" als Hoffnung ChatGPT befragt. Die Antwort war auch sehr interessant - "Alle Daten auf andere Platte kopieren, alles löschen und zurückkopieren"
 
Insgesamt hat es nicht zwingend mit Katalogen egal ob C1, LrC, ON1 oder sonst was zu tun.
Aber alle Kataloge liegen auf externen SSD's, nur das Bildmaterial mit Zusatzdateien liegt auf der mechanischer HDD.
OK
Über die SSD ist ja der Zugriff zunächst sehr schnell und man kann flüssig blättern.
Nach einem Hinweis bei CO oder Adobe habe ich den Katalog schon immer auf der internen "Platte", das gewährt den schnellsten Zugriff.

Vor einigen Wochen hatte ich mehr aus "Verzweiflung" als Hoffnung ChatGPT befragt. Die Antwort war auch sehr interessant - "Alle Daten auf andere Platte kopieren, alles löschen und zurückkopieren"
:ROFLMAO:😂🤣
--------------------------------------------------------------
Diese Nachricht hat mich auch noch erreicht:
Mike B. (Bombich Software)
8. Aug. 2025, 9:22 AM GMT-4
Hallo Gerhard,

ich habe mich im Forum registriert, aber ich darf noch nicht posten.

Wenn du mit Mike eh im Kontakt bist, kannst du ihm schreiben, dass sein Test ein "Problem" hat.
Mit 30 Dateien wird man es kaum merken. Dafür musste er sagen, dass wir 10000 Dateien in 5 MB erstellen, dann diese Dateien 30 mal verändern lassen, auch dass die kleiner/ größer werden und somit neu geschrieben werden. Das ist eben das Problem bei APFS und nicht das einmalige Schreiben auf einer Platte.
Das Problem ist hier gut beschrieben.

Der Zweck meines Tests war es, die Ergebnisse des Black Magic Speed Tests zu wiederholen, die andere gepostet hatten, indem ich nur die Dateisysteme und die Verschlüsselung veränderte. Die Auswirkungen der Dateigröße oder Fragmentierung habe ich ausdrücklichausgeschlossen. Die Dateigröße und die Fragmentierung des freien Speicherplatzes können sich ebenfalls auf die Schreibleistung auswirken, aber das war nicht die Sorge, die der ursprüngliche Poster hatte. Ursprünglich ging es darum, dass sich die Leistung beim Schreiben je nach Dateisystem und Verschlüsselung unterscheidet.

Der Black Magic Speed Test führt anhaltende Schreibvorgänge durch, die mit dem Schreiben einer einzelnen, sehr großen Datei auf dem Gerät vergleichbar sind. Solange du die Cache-Kapazität des Geräts überschreitest, zeigt der von mir durchgeführte Test (d. h. mit Dateien, die größer als 2 MB sind) den maximalen Durchsatz, den jedes Dateisystem erreichen kann. Indem wir das Dateisystem und die Verschlüsselung in jedem Test variieren, können wir sehen, wie die einzelnen Dateisysteme auf demselben physischen Medium im Hinblick auf maximalen Durchsatz abschneiden.

Ich habe viele Tests durchgeführt, bei denen die Dateigröße variiert und speziell die Aufzählungsleistung der beiden Dateisysteme verglichen wurde (die variiert, weil die Informationen im APFS-Dateisystem von vornherein fragmentiert sind). Ich dachte, das wäre nicht das Anliegen des ursprünglichen Posters, aber diese Analysen sind hier verfügbar:

Olympiade des Dateikopierens: Wie sich die Dateigröße auf das Rennen um Performance-Gold auswirkt
Eine Analyse der APFS-Aufzählungsleistung auf rotierenden Festplatten

Ich hoffe, niemand denkt, dass ich hier die Leistung von APFS verteidige (obwohl APFS definitiv einen Vorteil hat, wenn es um Verschlüsselung geht). APFS ist auf rotierenden Datenträgern generell nicht so leistungsfähig wie HFS+. Mein Argument ist, dass ich trotzdieser Leistungsunterschiede APFS gegenüber HFS+ empfehle, weil APFS zahlreiche Funktionsvorteile gegenüber HFS+ bietet.
Mike Bombich
Senior Software Engineer, Product Manager
Bombich Software, Inc.
Like CCC? Choose "Recommend CCC to a friend" from CCC's Help menu!

 
Zuletzt bearbeitet:
WERBUNG
Zurück
Oben Unten