naja naja
naja naja
Ich meld mich nochmals zu Wort:
Alles was hier geschrieben wurde stimmt mittlerweile nicht mehr so ganz. Im Storagesegment tätig, hab ich mir diese Frage auch schon gestellt, warum die externen Platten schneller hops gehen. Meines Erachtens sind da diverse Dinge daran schuld:
Vibration, klar
Stand der Platte, da gibts sehr strenge Vorlagen der Hersteller, waagerecht legen und erschütternungsfrei
und wärend die Platte läuft nicht bewegen, wegen der Kreiselwirkung der rotierenden Teile, gibt eine unnötige Belastung auf die Lager, wenn die zu viel Spiel kriegen, kann der Lesekopf die Spur nicht mehr finden.
Hitze, nur wenige externe Platten besitzen einen Lüfter, sind also, bestenfalls fürs Backup aber nicht für einen längeren Betrieb ausgelegt. Ich kann dir die LaCie Produkte empfehlen, die haben in der Regel einen Kühler drin, hab die bei einem Kollegen beim Mac per Thunderbold im Dauereinsatz.
Seit IDE Geschichte ist, ist der HDD Kontroller direkt auf der HDD montiert, dieser korrigiert selbstständig defekte Blöcke und gibt Warnungen per Smart Protokol aus. Nur, eine solche Platte manuell zu reparieren, ist mir bis heute nicht gelungen. Bei IDE Platten konnte ich noch mehr bewegen. Heute werden in der Platte drin, die Temperatur und die Erschütterungen aufgezeichnet, beim Garantiefall kann dies zum Verhängnis werden. Ist zunehmend ein Wegwerfprodukt geworden.
Hier noch ein paar Facts, nach Statistik ist die HGST Platte mit Abstand am stabilsten, gefolgt von WD. Jedoch wieder wichtig, nimm kein billig Modell, bei WD hab ich mal eine Rot, Grün, Schwarz und Blaue geöffnet und verglichen, der einzige Unterschied, ist der HDD Kontroller, die Mechanik ist die identische, also sind die meissten Ausfälle nicht mechanisch sondern elektronisch bedingt, bzw. der Kontroller hält länger oder eben nicht. Die WD Black zum Beispiel hat den Kontroller redundant aufgebaut, bei einem Defekt können die Daten oft noch, leider sehr langsam, ausgelesen werden. Hatte mal ein solchen Fall. Die Ausfälle bei HGST Platten halten sich im Bruchteil von einem Promille (SAS2 und SAS3: 7k4000 / 7k6000)
Defekte wie Lesekopf Crashes auf dem Datenträger sind ziehmlich ausgeschlossen, hab mich da mal mit einem Techniker eingehend ausgetauscht, also sogar leichte Vibrationen führen zu keinem Headcrash. Mit einem Speziellen Tool konnte ich sogar den Abstand der einzelnen Leseköpfe messen, die Fliegen wesentlich stabiler als ich mir dies vorstellte.
Defekte Sektoren werden zunehmend zu einem wichtigeren Problem, denn die werden auch mit einer Warscheinlichkeits Rechnung von 10 hoch 14 für standart Platten bis 10 hoch 15 für 7x24h platten definiert, hier ist der Knackpunkt, je grösser der Storage auf einer Disk, desto warscheindlicher hat sie fehlerhafte Sektoren, bei 8TB können dies schnell mal 20 stk auf einer Platte sein. Wenn ihr nun kein Filesystem verwendet, könnt ihr dadurch korupte Files erhalten.
Darum einen wichtigen Wink zum Filesystem ZFS und jetzt neu dann ReFS auf Windows, dies sind Filesysteme die Prüfsummen auf Blocklevel anlegen, diese prüfen alle Daten, in der Regel, 1mal in der Woche auf ihre Konsistenz, bei einem Fehler korrigiert das Filesystem dies selbstständig, dank der Prüfsumme und markiert die defekten Sektoren. Für mich ein Must Have. Wenn ihr also eure Daten auf NTFS oder FAT speichert, sind die nicht 100 % sicher, auch nicht, wenn ihr dann von diesen Daten ein Backup zieht. Dann sichert Ihr höchstens korupte Files.
ZFS/ReFS hat noch einen weiteren Vorteil, sprich Snapshots, falls ihr einen Virus wie den Looky einfangt, einfach snapshot zurücksetzen und es ist alles wieder heil.
Seit ca. zwei Monaten hat das Flash Only Zeitalter begonnen, ein Preissturz führte dazu, wir haben bereits drei grössere Umgebungen nur auf SSDs gebaut, die Stabilität der SSDs ist vorhanden und die Lebensdauer ist ausreichend, wir setzen allerdings spezielle SSDs ein. Die können 3,6 mal komplett gelöscht und beschrieben werden, dies pro Tag und über eine Dauer von 5 Jahren. Diese Flash Only Umgebungen haben zusätzlich NVMe SSDs verbaut die das Ganze nochmals beschleunigen, 500 000 IOPS bei einem Lese/Schreib Stresstest war das Resultat, eine HDD bringt ca. 120 IOPS. Das komplette beschreiben und löschen einer SSD hält sich noch in Grenzen, wir haben nun mehrer Jahre Erfahrung mit SSDs und SAS SSDs, die werden wesentlich weniger beschrieben und gelöscht als wir damals kalkuliert hatten...
ACHTUNG eine SSD ist nicht als Backup Lösung geeignet, warum? Weil sie am Strom hängen muss, wenn sie ausgesteckt wird, und Temperaturunterschieden von mehr als 4 Grad ausgesetzt wird, kann sie dadurch ca. 50% der Daten verlieren. Wir haben dies auch schon getestet, konnten dies nicht feststellen, jedoch wird davon dringend abgeraten. Für Backup nutzt HDDs.
Das Neueste sind aktuell die NVMe SSDs oder M.2 die sind zu empfehlen und sind nochmals schneller als normale SSDs ca. 6-10 mal so schnell, je nach Modell. Wir setzen bei den System Disk auf die Samsung 850 Pro, hatten bis jetzt noch keine einzige die kaputt ging, die haben wir zu hunderten eingesetzt.
Noch kurz zu den synologies, sind toll und einfach zu handhaben, dennoch wenn das Gerät kaputt geht muss jmd mit einem Linux die Daten retten bzw. wieder herstellen, mühsame Sache. Baut ein HP Microserver, nutzt die Zeit, es macht Spass, es hat auch tolle Tutorials im Netz, und das Ding läuft mit NAS4Free (mit ZFS) stabil und mühelos. Ihr könnt damit Win, Mac sogar Timemachine und Linux bediehnen, also von allen möglichen Umgebungen her auf eure Daten zugreiffen. Finde ich persönlich immer noch Hammer Genial. Dann noch Dedublizieren aktivieren und ihr verschwendet keinen Platz unnötig. ZFS benötigt einfach ca. 8GB Ram Arbeitsspeicher, einziger Nachteil, die HDDs könnten auch mit einer SSD beschleunigt werden. Oder statt in einem HP Microserver in einem anderen PC, occ. älteres Modell gebaut werden.
Ok, das wars glaub ich... Gruss und viel Spass an unserem Hobby...