Die Wahl des richtigen Storage ist nicht gerade trivial. So viele Dinge sind bei der aktuellen Dynamik im Storage Markt nicht vorherzusagen. Die sich ständig wandelnden Rahmenbedingungen, die aktuellen und zukünftigen Anforderungen, das Bedenken der zukünftigen Applikationen und was sonst noch alles zu berücksichtigen ist, lässt noch nicht einmal über einen Zeitraum wie den kommenden zwei Jahren eine verlässliche Aussage zu. Daher ist eine passende Strategie in Sachen Storage sehr wichtig.
Das Thema Storage an sich ist seit wenigen Jahren nicht gerade trivial. Auf dem Markt gibt es sehr viele Hersteller, von den Dinos der Branche bis hin zu den auch manchmal reinen Software Startup’s, was es nicht gerade leicht macht die richtige Wahl zu treffen. Setzt man auf klassische Spindeln, Hybride Storages oder auf reinen Flash Hardware inklusive der Wahl von klassischen, neuen RAID und nonRAID Ansätzen? Latency ist zudem das neue IOPS und auch die Frage ob FC, FCoE, iSCSI, IB oder DAS. Das Ganze wird dann durch verschiedene Featuresets der Anbieter multipliziert und SDS potenziert alles noch mal – wenn man so will, ein multidimensionales Array der Entscheidung, was es als Beschreibung ganz gut zutrifft. Das ist jetzt der eine Teil bei der Frage, welches Storage nun das richtige ist, den es zu beantworten gilt. Der andere Teil sind die Anforderungen an sich, die ja auch nicht gerade statisch daherkommen und sich am Wandel der Applikationen und Speichermengen orientieren. Die hyperkonvergenten Systeme wie Nutanix, SvSAN, VSAN, vSAN und die Storage Server u.a. von SuSE, Redhat, Microsoft oder den OpenSource Varianten packen die nächsten Dimensionen zusätzlich oben drauf. Dann kommt noch hinzu, dass man vor der Frage steht, wohin denn der Weg mit der IT überhaupt führt? An dieser Stelle wäre jetzt eine funktionierende Glaskugel für den Blick in die Zukunft wirklich sehr hilfreich. Dann wüsste man, welche Anforderungen man in der Zukunft zu bewältigen hat und vor allem, welcher Storage oder Software Hersteller in der Zukunft noch am Markt ist. Gefühlt ist es wie bei Schrödingers Katze aus der Quantenphysik, alleine durch hinsehen ändern sich die Zustände aller Rahmenbedingungen, Optionen und sonstigen Variablen. Was also tun?
Man konzentriert sich auf das jetzt, hält die Skalierbarkeit im Auge und stellt sich etwas breiter auf. Zudem beachtet man ein paar wenige Dinge. Auf dieser Basis bekommt auch in den kommenden Jahren eine zuverlässige, stabile und leistungsfähige Storage Infrastruktur. Der Ansatz zwei unterschiedliche Strategien für Anwendungen und unstrukturierte Daten zu wählen bietet sich geradezu an. Dies hat auch den Vorteil, dass damit die Tür in Sachen Hyperconverged Infrastructure (HCI) und Software Defined Storage (SDS) weiter geöffnet wird und sich somit ganz neue Möglichkeiten bieten. Trennt man durch die unterschiedlichen Strategien die unstrukturierten Daten von den Applikationen bzw. den klassischen Servern, ändern sich automatisch die Anforderungen an die Speicher der HCI Systeme. Damit eine solche Trennung Sinn macht, muss man einen steigenden Platzbedarf bei einem Startvolumen ab 30+ TB an unstrukturierten Daten haben. Erst ab dann spielen Systeme wie Quantum Xcellis ihre Vorteile aus. Hat man aber diesen Bedarf, den die meisten haben werden, dann führt fast kein Weg an einer solchen Lösung vorbei. Eine Lösung auf Xcellis mit Disk und Tapes erfüllt mehrere Anforderungen für die dort abgelegten Daten auf einmal. Zu diesen Anforderungen gehören ein mögliches Wachstum bis in den hohen Petabyte Bereich, Versionsstände der Dateien, Archivierung und Backup auf Tape, was an mehreren Standorten abgelegt werden kann. Dazu kommt der Synergieeffekt die Kosten für den Betrieb durch das Archivieren der Langzeitdaten auf Tape sehr gering zu halten. Das Xcellis System stellt SMB/CIFS, NFS und S3 zur Verfügung und lässt sich sogar logisch Partitionieren, was zum Beispiel eine Trennung von Abteilungen auf System und nicht auf Ebene des Shares möglich macht. Durch die zur Verfügung stehende S3 Schnittstelle können Webanwendungen direkt mit der Xcellis verbunden werden. Mit dem System „Store Next“ von Quantum hat man eine solide Basis für seine unstrukturierten Daten, die zudem hervorragend skaliert und die Daten durch die Bereitstellung über mindestens zwei Datacenter hochverfügbar vorhält. Hat man diesen Schritt getan, so kann man sich jetzt ganz auf die Daten für die Anwendungen konzentrieren.
Bei den Anwendungsdaten ist die Wahl nicht ganz so einfach wie bei den unstrukturierten Daten. Es gilt als erstes eine grundlegende Entscheidung zu treffen: Wird ein synchroner Spiegel der Daten benötigt oder nicht. Ist dies der Fall und werden noch weitere Funktionen wie AutoTiering oder CDP benötigt, dann ist Datacore das Mittel der Wahl. Je nach Anforderung steht eine Implementierung als HCI Lösung, physikalische Storage Server und hier mit und ohne entsprechende Erweiterung der durch den Server zur Verfügung stehenden internen Platten. Wird kein synchroner Spiegel benötigt, was sehr genau geprüft werden sollte, dann kann man auf zum Beispiel Quantum QXS4 Systeme mit der Hybrid und Q-Tiering Technik zurückgreifen. Aber noch mal der Hinweis zur Verfügbarkeit der Daten, wenn nicht ein synchroner Spiegel mit CDP zum Einsatz kommt. Zwar sollten SAN’s immer mit redundanten Controllern und Netzteilen sowie entsprechenden RAID Arrays ausgestattet sein, können diese trotzdem ausfallen. Bei einem „Totalschaden“ sind die Daten weg und man muss auf das letzte Backup zurückgreifen. Üblicher Weise verliert man mindestens einen Arbeitstag plus Zeit für die Rücksicherung. Die Wahrscheinlichkeit, dass genau in dem Moment der Defekt auftritt, wenn man ein aktuelles Backup hat und zudem in der Zeit des Backups keine Daten verändert wurden ist sehr sehr unwahrscheinlich. Dieses Glück wird einem normal nicht zu Teil. Daher muss, wenn man schon auf einen synchronen Spiegel im Storage verzichtet, die Verfügbarkeit von den Anwendungen selbst kommen. So muss man zum Beispiel entsprechende Cluster Systeme von Datenbanken, Exchange und anderen Servern aufbauen. Das funktioniert nur bis zu einem gewissen Grad, da die Komplexität durch solche Lösungen nicht kleiner wird, zumal man die Affinität dann bei den Storages beachten muss. Es kommt sehr schnell der Punkt, dass eine Hochverfügbarkeit die aus dem Storage selbst kommt die effizientere und wesentlich einfachere Lösung ist.
Jetzt steht noch die Überlegung an, reine Flash Systeme oder doch aus Gründen der Wirtschaftlichkeit auf Hybrid Systeme mit AutoTiering zu setzen. Bei den meisten Szenarien ist der Ansatz eines Hybrid System mit Tiering die bessere Wahl. Damit kombiniert man geringe Latenz und hohe IO-Werte bei gleichzeitig großer Kapazität zu vernünftigen Kosten. Der Ansatz mit zwei Strategien für die unterschiedlichen Anforderungen zu arbeiten, macht es wieder einfacher die Wahl im Bereich des Storage zu treffen. Egal wie die Wahl im Bereich des Storage aussieht, kommt jetzt noch der aller wichtigste Punkte für die eigenen Daten: Das Backup!
Das Backup ist die Lebensversicherung jedes Unternehmens und es müssen qualitativ sehr hochwerte Komponenten zu Einsatz kommen. Vor allem müssen diese Speichersysteme viel Platz bei gleichzeitig hoher Leistung bieten. Der Grund dafür ist ganz einfach, die Datenmengen werden immer größer und das Backup muss trotzdem in einer zum Unternehmen passenden Zeit abgeschlossen sein. Da moderne Backups mit Kompression und Deduplizierung arbeiten, ist nicht nur ein linearer Zugriff auf das Repository gefragt, sondern, um in der Sprache des Storage zu bleiben, eine hohe Performance im Random Access. Das bedeutet aber auch, dass man im ersten Schritt ein Backup-to-Disk durchführt und entsprechende Revisionsstände im Repository vorhält. Dabei sind zusätzlich zu den üblichen Tagesbackups noch Wochen-, Monats- und auch Jahres-Backups völlig normal. Das stellt einen sicheren Betrieb des Backups vor völlig neue Herausforderungen. Es gibt so genannte Bit-Kipper auf den Speichermedien, bei denen sich Daten ohne Schreiboperationen ändern. Das CERN hat mit seinen Daten dazu eine Studie durchgeführt und ist dabei zum Ergebnis gekommen, dass in einem Terrabyte Daten sich zwischen ein bis vier defekte Dateien befinden. Das hat nun zur Folge, dass das eigene Backup auf das man sich alternativlos verlassen muss, möglicherwiese defekte Inhalte hat, wenn nicht die passenden Systeme dafür eingesetzt werden. Das CERN hat nun gegenüber anderen ganz andere Volumina bei seinen Daten, was aber nichts daran ändert, dass es je Terrabyte entsprechend defekte Dateien gibt. Bei einem Textdokument erscheint vielleicht ein solcher Fehler als „Tippfehler“, bei einem Backup sieht es aber ganz anders aus, wenn man sich darauf nicht mehr verlassen kann. Das CERN setzt, um solche Defekte zu vermeiden, die ganze Forschungsergebnisse vernichten können, auf ZFS zur Speicherung seiner Daten. Das ist eine sehr gute Wahl, denn ZFS bietet für Metadaten und die Daten an sich Prüfsummen, um genau diese Fehler zu erkennen und zu korrigieren. Zudem bietet es ein Software RAID, welches so ausgelegt ist, dass selbst bei einem Ausfall im Schreibprozess die Konsistenz der Daten bzw. des Volume nicht verloren geht. Die Erfahrungen und vor allem die Erkenntnisse des CERN sollte bzw. muss man sich nun zu Nutze machen, damit die eigenen Daten des Backups auch sicher und dies ganz besonders bei langfristiger Aufbewahrung gespeichert sind.
Mit diesem Wissen und der Anforderung an ein Backup ist es sehr wichtig Systeme auszuwählen, welche die entsprechenden Sicherheiten bieten, die diese Daten benötigen. Handelsübliche NAS Systeme sind qualitativ keine schlechten Systeme, jedoch basieren viele auf Linux mit den Subsystemen md, LVM und dem häufig Dateisystem ext4. Es gibt auch NAS Systeme die auf ZFS basieren. Diese eignen sich daher schon eher für eine langfristige Aufbewahrung. Jedoch haben diese NAS Systeme alle eins gemein, dass die Hersteller nur für einen gewissen Zeitraum Support für diese Systeme in Form von Firmware Updates bieten. Die SambaCry Attacke hat aber gezeigt, wie wichtig auch für diese Systeme entsprechende Updates sind. Daher muss insbesondere für das Backup und dessen Ansprüche ein entsprechend hochwertiges Storage gewählt werden. Die Kosten spielen natürlich bei allen Überlegungen eine Rolle und wenn das aktuelle Budget einen Wechsel zu einem professionellen Backup-Storage nicht zulässt, aber die vorhandenen NAS Systeme aus dem Support sind und sogar noch gegen die SambaCry Lücke anfällig, hilft ein Blick zu möglichen Alternative auf Basis von OpenSource. Damit lässt sich ein Repostory Server aufbauen, der wieder unter „Support“ ist und auch die entsprechenden Dateisysteme mitbringt. Als Hardware genügt hier ein einfacher Storage Server mit JBOD und je nach Leistung entsprechende SSD’s für den ARC. Damit steht das Backup wieder auf einer soliden Basis und man kann ganz in Ruhe an die Planung des zukünftigen Konzepts für das Backup gehen.
Die Beachtung der 3-2-1 Regel für das Backup ist davon unabhängig und grundsätzlich zu beachten. Die Regel ist denkbar einfach, 3 Kopien der Daten, 2 Medien (Disk und Tape) und 1 Datensatz offline für den Fall der Fälle. Gerade auf dem Hintergrund der Ransomware ist das Backup die letzte Instanz die man hat.