Der Bedarf an skalierbarem Speicher für unstrukturierte Daten wächst unaufhörlich und klassische Systeme können hier einfach nicht mehr mithalten. Der herkömmliche Windows Fileserver stößt schnell an seine Grenzen, wie auch die Enterprise Versionen der NAS Systeme von bekannten Herstellern, wie Q&S.
Die klassischen Systeme, die zur Ablage von Dateien genutzt werden, haben alle eines gemeinsam: Skalierungsprobleme. Dies hat mehrere Ursachen, die zum Teil im Design und vor allem in der Historie dieser Systeme liegen. Die eigentlichen Dateisysteme lassen es zwar zu, sehr große Volumes zu bilden, was aber für sich genommen mehr oder weniger sinnfrei ist, wenn man sich ansieht, auf welcher Technologie diese fußen. Das primäre Problem ist in allen Fällen die Basis, die schlussendlich auf einem klassischen Block-Storage basiert. Ein virtueller Windows Fileserver dürfte bei den meisten Unternehmen auf VMware laufen, welches wiederum den Speicher aus irgendwelchen Block-Speichersystemen bezieht. Nicht viel anders sieht es bei den üblichen Verdächtigen der NAS Systeme aus. Hier benutzen die Hersteller immer die gleiche, wenn auch leicht variierte Basis eines Linux Systemen, Software RAID, Volumen Manager und einem Linux Dateisystem wie ext4 oder btrfs. Aber auch hier liegen die Daten auf Block-Speicher und somit landet man wieder beim Problem der Skalierung. Hinzu kommt ein weiteres Problem bei den RAID Systemen, da für hohe Kapazitäten auch große HDD’s zum Einsatz und hier ein Resync des RAID‘s beim Austausch einer der Platten sehr lange dauert und in dieser Zeit die Redundanz nicht vorhanden ist. Zudem leidet die Leitung je nach System massiv unter dem Rebuild des RAID selbst. Das nächste sehr tückische Problem ist die Datensicherung dieser Systeme. Ab einer bestimmten Größe, die schnell erreicht ist, hat man bei egal welcher Variante ein Problem. Bei einer VM gibt es mit CBT oder analogen Techniken diverse Hilfsmittel und die Option eines File-Level-Restore. Bei den NAS Systemen gibt es durch die Hersteller bereitgestellte Backup- und Replikationsmechanismen, die aber für den vollen Funktionsumfang ein NAS des gleichen Herstellers voraussetzen. In beiden Fällen eignen sich die Systeme nur bis zu einer bestimmten Größe.
Das Problem der Skalierung und das eines (kompletten) Restore ist so gesehen das gleiche, bei solchen Datenvolumina geht das nicht mal eben und man muss schon in Tagen statt Stunden rechnen. Dabei spielt es keine Rolle, ob man das Volumina zurücksichert oder es auf ein neues und größeres System überträgt, weil der Platz auf dem alten nicht mehr ausreichend war. In Anbetracht der hohen Gefahrenlage von Cyber-Attacken ist es durchaus wahrscheinlich, dass der Fall eines kompletten Restore eintritt.
Aber auch im ganz normalen Tagesbetrieb sind die Probleme nicht wegzudiskutieren. Alleine das Thema Updates der Systeme welche ggf. noch mit einem RAID- oder Filesystemcheck verbunden ist, stellt die IT im Unternehmen vor eine große Herausforderung und die Anwender auf eine Geduldsprobe da die Services nicht verfügbar sind. Betrachtet man das Szenario der Speicherung von unstrukturierten Daten ganz objektiv, braucht es hier andere Lösungen und dies möglichst zeitnah, weil hier die Zeit gegen die IT arbeitet. Je länger man wartet, desto größer sind die Volumina und somit auch die Probleme, die es zu lösen gilt. Eine neue Ausrichtig in Sachen der Speicherung von unstrukturierten Daten hat zudem einen Synergieeffekt, denn es lassen sich den möglichen Wildwuchs bei Speichersystemen eliminieren und gleichzeitig eine Umstellung vieler Dienste auf einen Object Store miteinander verbinden, um so die Tür in eine zukunftsfähige Storage-Lösung zu öffnen. Zum einen löst man die Speicherung der unstrukturierten Daten aus der Abhängigkeit der Virtualisierung heraus und macht sie gleichzeitigt bereit, für die Verwendung hybrider Clouds und nativer Cloud-Applikationen. Bei einem passenden System muss man auch nicht auf das gewohnte Backup, wie mit Veeam, Commvault, Rubrik oder Cohesity usw. verzichten, trifft man hier die richtige Wahl so gibt es entsprechende Schnittstellen, mit denen die Backup-Software für ein effizientes Backup mit dem Storage kommunizieren kann. Auch muss ein solches System sich im laufenden Betrieb ohne für den Anwender merkliche Unterbrechung aktualisieren und auch erweitern lassen. Es skaliert einfach so mit dem Bedarf und stellt Storage-Protokolle und Services zur Verfügung, die vielleicht jetzt noch kein Thema sind, aber es ganz schnell mit der zunehmen Digitalisierung und dem daraus resultieren Speicherbedarf werden können. Es mag zwar paradox klingen, aber mit einem passenden ScaleOut NAS reduziert man die Komplexität in der Infrastruktur, obwohl ein weiteres System in Betrieb geht. Aber dieses bringt durch seine Fähigkeiten der Konsolidierung, Verfügbarkeit, Erweiterungsfähigkeit, Flexibilität usw. bei gleichzeitiger Ablösung der mehr oder weniger überforderten klassischen Shares die gewünschte Klarheit und Reduktion der zu komplexen herkömmlichen Datenablage.
Bei Fragen stehen wir wie gewohnt zur Verfügung.