Heute muss ein Backup mehr können und nicht nur die Funktion Datensicherung beherrschen. Ein modernes Backup ist heute ein Datenmanagement, wobei die Datensicherung nur eine Teilfunktion dessen ist. Die IT-Welt hat sich gewandelt und die Daten eines Unternehmens liegen eben nicht mehr nur lokal, sondern sind in hybriden Clouds verteilt. Zudem ist das Backup die letzte Bastion zum Schutz vor Cyber Attacken.
Das Backup hat oft nicht den Stellenwert, den es haben müsste, denn es ist genauso wichtig, wie der Betrieb der gesamten IT selbst. Dies gilt ebenso im lokalen Rechenzentrum, wie auch in den Clouds. Daher muss ein modernes Backup in der Lage sein viele verschiedene Datenbestände als zentrale Instanz des Datenmanagement zu verwalten und somit auch zu sichern. Dabei sind auch Funktionen wichtig, die es erlauben Daten zwischen den verschiedenen Clouds und lokalen Ressourcen zu verschieben bzw. zu konvertieren, damit diese im jeweiligen Ziel verwendet und somit genutzt werden können.
Der Einsatz von Office 365 und auch Exchange Online ist völlig normal und für die aller meisten Anwender der richtige Weg. Aber wie sieht es hier mit der Sicherung der Daten aus? Zwar bieten die Anbieter entsprechende Optionen aber hinsichtlich des Themas „Digitale Souveränität“ macht es durchaus Sinn einen Bestand der Daten unter seiner Hoheit selbst vorzuhalten. Hier gilt der Grundsatz, besser haben und nicht brauchen als brauchen und nicht haben. Der Exchange Online ist nur eine der unzähligen Optionen in der Cloud und steht hier nur stellvertretend für alle anderen, wo es auch darum geht seine Daten im Fall der Fälle im Zugriff zu haben.
Blickt man in das lokale Rechenzentrum, so zeigt sich hier der Trend, dass immer mehr (professionelle) NAS Speicher für das Speichern und Bereitstellen unstrukturierter Daten verwendet werden. Der Einsatz klassischer Fileserver aus Basis von Windows Server in virtuellen Umgebungen ist ab einem bestimmten Volumen kein gangbarer Weg mehr, zumal moderne NAS Systeme mit Inline Dedup und Kompression sowie mit entsprechenden Scale Out Filesystemen für diese Art der Daten wesentlich besser geeignet sind. Der Betrieb solcher NAS Lösungen ist die eine Seite, die andere Seite ist die Sicherung dieser Daten. Auch das muss ein modernes Backup beherrschen, diese großen Datenmenden effizient und schnell zu sichern und auch schnell und einfach einzelne Objekte oder ganze Verzeichnisse wiederherzustellen.
Alleine diese beiden Beispiele von Anforderungen an ein Backup in der Cloud und On Premises zeigen die Komplexität des Themas. Aber auch das Backup selbst hat zwei Themenkomplexe in sich vereint. Das eine Thema wurde kurz beleuchtet und zeigt die Anforderungen mit verschiedenen Ressourcen umzugehen und das zweite, ebenso wichtige Thema, ist das zuverlässige und schnelle Sichern der Daten selbst und betrifft die Auswahl geeigneter Repositories.
Das bringt einen zugleich in ein Dilemma und führt unweigerlich zur Gretchenfrage ob Tape oder nicht Tape. Grundsätzlich ist Tape, trotz seines Alters, ein völlig legitimes Medium zur Sicherung von Daten. Aber zu dessen Verwendung gehört eine entsprechende Disziplin auf der organisatorischen Seite für deren Verwaltung. Entscheidet man sich für Tape als Langzeitsicherung mit externer Aufbewahrung, entscheidet man sich auch für den organisatorischen Aufwand. Das eine bekommt man nicht ohne das andere, wenn man sich im Fall der Fälle auf das Tape verlassen muss. Kann oder will man diesen organisatorischen Aufwand nicht leisten, so ist Tape keine Option. Es macht einfach keinen Sinn die Tapes nur einfach aus der Library zu entnehmen oder gar in ihr zu belassen. Tapes gehören extern sicher aufbewahrt und es gilt dabei zu beachten, dass Tapes auch Verfallsdaten haben und entsprechend umkopiert oder mit dem Datenbestand neu erstellt werden müssen. Wenn man das alles leisten kann, hat mal eine sehr sichere und zuverlässige extern aufbewahrte Datensicherung. Je nach Szenario ist Tape daher nach wie vor eine gute Option für die Langzeitarchivierung.
Backup to Disk ist mit oder ohne Tape immer die erste Wahl, wenn es heute um das primäre Repository geht. Hier wird häufig der Fehler gemacht, dieses Repository nicht hochwertig genug auszuwählen. Oft wird an der Qualität und vor allem an der Leistung gespart. Hier sollte man sich die Frage stellen, wenn man sich am Ende des Tages genau darauf verlassen muss, wie zum Beispiel nach einer Cyber Attacke, dass das Backup funktionsfähig zur Verfügung steht, warum wählt man dann „billige“ Komponenten und vertraut denen die Daten an, auf die es dann auch ankommt? Selbst wenn diese Komponenten eine Rücksicherung erlauben ist diese dann oft sehr langsam und es dauert bei großen Volumina Tage, bis diese wiederhergestellt sind? Die Anforderungen an das Backup Repository unterscheiden sich nicht im Wesentlichen vom Primärspeicher der IT-Umgebung. Ob ein Backup auf AllFlash abgelegt werden muss, sei mal dahingestellt. Wobei es sicherlich Szenarien gibt, bei denen es vorstellbar wäre. Grundsätzlich sind es aber die gleichen Eigenschaften bzw. Anforderungen, Daten schnell, zuverlässig und über lange Zeit sicher zu speichern, die an den Speicher für das Backup gestellt werden.
Bei der Langzeitaufbewahrung von Daten auf Disk gilt es einiges zu beachten. Ein ganz wesentlicher Punkt ist hier die Integrität der Daten selbst. Das CERN hat vor ein paar Jahren eine Studie durchgeführt und dabei ermittelt, dass zwei bis vier Dateien in einem Terabyte Nettodaten durch BitRot beschädigt sein können. Daher ist die Integrität der Daten bei Backup to Disk eine nicht zu unterschätzende Gefahr. Speichersysteme nach dem Stand der Technik haben entsprechende Mechanismen, um dem vorzubeugen. Aber es bieten sich auch auf Standard Hardware basierende Systeme für den kleinen bis mittleren Speicherbedarf mit OpenSource Software an, um das Problem zu lösen. Ab einem bestimmten Speicherbedarf führt kein sinnvoller Weg an kommerziellen Produkten vorbei, wenn man die Gesamtkosten für den Betrieb betrachtet. Zudem spielt auch S3 in modernen Backup Szenarien eine wichtige Rolle und der Zielspeicher sollte diese Schnittstelle zur Verfügung stellen können. Natürlich kommt S3 aus der Welt der Clouds, genauer von AWS und bedeutet Simple Storage Service, hat sich aber zu einem Standard entwickelt. Die Option S3 bietet zugleich einen Synergieeffekt, bei dem lokaler als auch Cloud-Speicher über eine einheitliche Schnittstelle genutzt werden kann. Zudem bietet S3, je nach Ausprägung, eine Art ReadOnly Flag und kann so eine weitere Ebene zum Schutz vor Cyber Angriffen beitragen. Dann kann mit S3 auch Cloud Speicher als Langzeit-Tier für die Datensicherung verwendet werden. Daher muss eine moderne Datensicherung S3 (und kompatible) unterstützen. Wie sich zeigt, macht man ein Backup nicht mal ebenso nebenbei mit, sondern bedarf einer entsprechenden Aufmerksamkeit. Zudem sollte in gewissen Abständen das Zurücksichern getestet und somit geübt werden, damit auch hier eine entsprechende Routine vorhanden ist und man so auch gut den Zeitbedarf einschätzen kann, der für eine Rücksicherung benötigt wird. Ist dieser zu lange oder funktioniert das aktuelle Backup nicht wie gewünscht, gibt es dringenden Handlungsbedarf.