Was ist die Hauptspeichererweiterung? Ich hätte gesagt, dass das die Festplatten sind...
Nein, das betrifft dem RAM. Allerdings wird das vor Allem dann erst wirklich interessant, wenn Du Features wie deduplication (Duplikate mittels Referenzierung verhindern) o.a. nutzt, extrem viele Schreib-/Lesezugriffe puffern musst (bspw. bei größeren Datenbanken) oder mit Docker, jails oder anderer Virtualisierung arbeitest.
Betreffend Geschwindigkeit: In der Regel werde ich sicherlich über WLAN arbeiten, aber beim Verschieben von größeren Datenmengen macht ein temporäres Anschließen des Laptops sicherlich Sinn
Ebenso sinnvoll ist auch die Wahl des richtigen Übertragungsprotokolles. CIFS/SMB hat einen ziemlichen Overhead, NFS etwas weniger. Die schnellste Variante wäre AoE, was man aber nicht routen kann. Bei direkter Verbindung über Kupfer oder LWL würde ich iSCSI empfehlen. Alternativ könnte man auch via netcat und ssh arbeiten, was zusätzlich noch einmal Verschlüsselung des Datenstromes bieten kann (in privaten Netzwerken nicht so wichtig, erzeugt auch zusätzlichen Overhead), sowie die Möglichkeit, die zu übertragenen Daten vorher noch über einen Packer (z.B. "pigz") zu pipen und am Zielrechner mit dessen Ressourcen wieder zu entpacken. Macht bei bereits stark komprimierten Daten wie z.B. Bildern jedoch kaum Sinn. Besser, die Verwendung von mbuffer.
Letztlich bleibt Dir nur noch Bandbreite als Optimierungsmöglichkeit. Im privaten Umfeld wäre das 10gbit/s über Kupfer oder Multimode LWL. WiFi ist sinnfrei. Zwar wird mit tollen Übertragungsraten geworben, was aber oft übersehen wird: In diese Übertragungsraten ist auch der Overhead für die drahtlos-Übertragung mit eingerechnet, die tatsächlich zur Datenübertragung nutzbare Bandbreite ist weit geringer. Anders beim herkömmlichen LAN via Kupferkabel: Hier ist fast die gesamte Bandbreite der Schnittstelle auch tatsächlich nutzbar, vorausgesetzt, die Backplane der Switches ist noch nicht in der Bandbreite ausgereizt.
Caching mittels SSDs im NAS wird IMHO überschätzt
Da stimme ich Dir zu. Für Privatanwender im heimischen Netz praktisch nutz- und sinnlos. Wenn das NAS auch noch von eines USV gestützt wird, oder sowieso nur SSDs verbaut sind, ist es vollkommen überflüssig.
am Ende zählt für mich einfach zuverlässige Hardware und langjähriger Softwaresupport. Da fährt man m.E. mit den bekannten, etablierten Herstellern am besten.
Relativ. Nutzt man proprietäre Software, die Daten in proprietären Containerformaten speichert, ist man aufgeschmissen, wenn der Hersteller den Support und die Vermarktung einstellt, das Format ändert, ohne Abwärtskompatibilität, oder gleich ganz den Betrieb einstellt. Ich würde auf quelloffene Software setzen. Ebenso auf möglichst generische Hardware statt Exoten. Also vielleicht ein Xeon-Board von der Stange, ein paar SAS-HBAs ohne besondere RAID-Funktionalitäten, etc und ein ganz normales 2- oder 4HE-Gehäuse mit standard-Netzteil. Als OS OpenBSD, SuSE oder Debian Linux, meinetwegen auch eine auf NAS-ähnliche Anwendungen ausgerichtete Distro wie OMV o.ä, das Ganze zwei Mal (den zweiten Server als regelmäßiges Backup des Produktivsystems) und als Nearline-Backup-Medien (3. Standbein) weiterhin auf LTO setzen, ist immer noch sehr zuverlässig und wird auch noch eine ganze Weile vorhalten. Passen auch wunderbar(trocken, wohltemperiert und dunkel lagern) in Bankschließfächer oder feuerfeste Safes.
Bewahrt vor ungewollten Hersteller- und Produktabhängigkeiten.