In einer immer komplexer werdenden IT-Welt ist es wichtig klare Strukturen zu schaffen und sich auf das Wesentliche zu konzentrieren. Daher wird es Zeit Systeme auf den Prüfstand zu stellen, die vielleicht ihren Zenit schon längst überschritten haben, wenn es darum geht, eine modernen und zukunftsgerichteten IT zu gestalten.
Die IT befindet sich, wie immer mal wieder, an der Schwelle eines technologischen Wandels, der massive auswirkungen auf das lokale Rechenzentrum hat. Viele Technologien, die schon seit vielen Jahren ihren Dienst im Rechenzentrum verrichten, sind in die Jahre gekommen und passen nicht mehr zu modernen und technologisch fortschrittlichen Produkten die zur Verfügung stehen. Im Besonderen betrifft dies den Bereich Software Defined Storage (SDS) und auch in Teilen hyperkonvergente Infrastrukturen (HCI), wobei man bei letzteren differenzieren muss. Schaut man hier ein paar Jahre zurück, so haben Systeme für die Storage Virtualisierung durchaus Sinn gemacht. Die Funktionen, die von diesen Systemen angeboten wurden, gab es nicht zu Preisen von den Storage Herstellern, die zu den Budgets von kleinere oder mittelständische Unternehmen passen oder die Storage Systeme hatten diese Funktionen schlichtweg nicht. Aber die Welt steht nicht still und von Zeit zu Zeit kommen neue Technologien auf, die andere ablösen. Die Versprechen von damals decken sich aber nicht mehr mit den zur Verfügung stehenden Produkten von heute und deren technischen Fähigkeiten. Der Betrieb synchroner Mirror sind heute kein Hexenwerk mehr und gehören ebenso selbstverständlich zu den normalen Funktionen wie Active/Active Zugriffe über alle Storage Controller. Richtig deutlich wird es, was moderne Storage Systeme leisten können, wenn man sich die Latenzen der Zugriffe ansieht. Ein modernes All-Flash Array hat Latenzen unter einer Millisekunde bei 100k und mehr IOPS in den Einstiegsklassen. Jede Storage-Virtualisierung, die dann noch zwischen die Compute Ressource und diese Storages kommt, macht den Zugriff darauf nur langsamer. Die Technologie der Storage-Virtualisierung stammt ja noch aus der Zeit von HDDs mit sich drehenden Disks, wo die Latenz durch die Mechanik bestimmt wurde. Damals war es schon wichtig mit RAM Caches und zu der Zeit noch sündhaft teuren SSD die Zugriffe zu beschleunigen. Die Technik im Bereich Storage ist aber heute eine andere. Dazu kommt noch, dass jede zusätzliche Komponente die Komplexität unnötig erhöht, da die benötigten Funktionen direkt aus den Storage-Arrays zur Verfügung stehen. Was früher so zu sagen die Domäne der Software war, haben sich einige Storage-Hersteller zu eigen gemacht und bieten alles optimiert “out of the box” an. Das reduziert nicht nur die Komplexität, sondern schafft zudem klare Strukturen, vereinfacht den Betrieb und die Wartung, was sich auch in den Kosten widerspiegelt. Auch darf die Energieeffizienz hier nicht außer Acht gelassen werden, denn auch in der IT geht es um Nachhaltigkeit. Moderne Storage Arrays basieren auf spezialisieren und optimierten Controllern, KI-Chips und sehr effizienten ARM-Architekturen, wo hingegen SDS-Lösung meist auf klassischen x86-Architekturen und handelsüblichen Servern basieren, die bestimmt nicht im Efficiency Mode betrieben werden. Es gilt weniger ist mehr und dies ohne auf das Wesentliche zu verzichten. Analog gilt dies auch für hyperkonvergente Infrastrukturen, jedoch nicht im Allgemeinen und zu differenzieren ist hier wichtig. Nach wie vor gibt es sinnvolle Anwendungsszenarien auf Basis von HCI. Zu nennen sind hier Szenarien wie ROBO, Edge-Computing oder auch im Bereich OT für Anforderungen der Produktion. Aber auch hier gilt der Ansatz weniger ist mehr und je klarer strukturiert eine HCI Lösung ist, je einfacher und zuverlässiger gestaltet sich deren Betrieb. Bei HCI Lösungen im Bereich primärer Datacenter stellt sich in vielen Fällen heraus, dass der Bedarf in den unterschiedlichen Ressourcenbereichen nicht linear bzw. symmetrisch über alle Ressourcen skaliert. Wirft man einen Blick auf den Speicherbedarf oder die Anforderungen an das Storage, so steigt dieser in vielen Fällen um ein Vielfaches schneller als der Bedarf im Bereich der Compute-Leistung. Ergibt sich hier eine entsprechende Diskrepanz, so macht es auf jeden Fall Sinn mit getrennten Ressourcen in diesen Bereichen zu arbeiten, die dann jeweils für sich entsprechend dem Bedarf skalieren können. Der Vorteil ist dann eine sehr große Flexibilität, Energie- und Kosteneffizienz, da nur der Bereich erweitert wird, wo die Ressourcen fehlen. Daher ist es bei HCI Lösungen sehr wichtig, den tatsächlichen Bedarf gut einschätzen zu können bzw. Szenarien zu entwickeln, die einen nicht einengen und die notwendige Flexibilität bieten.
In Punkto Flexibilität und Kosten setzt sich mehr und mehr iSCSI oder zukünftig Techniken wie RoCEv2 durch, welches ebenfalls auf Ethernet basiert. Natürlich ist klassisches FC deshalb nicht schlecht und hat ebenfalls die eine oder andere Erhöhung der Bandbreite erfahren, aber es stellt eine zweite und somit zusätzliche Netzwerkstruktur im Datacenter auf einer anderen Technologie dar, die zudem in der Skalierung engere Grenzen gegenüber auf Ethernet basierender Strukturen hat und was die Kosten angeht in einer anderen Liga spielt. Wirft man einen Blick zum Cloud-Computing und da auf die Technik, welche von den großen Anbietern genutzt wird, ist iSCSI dort das Protokoll der Wahl. Die Frage der Zuverlässigkeit stellt sich nicht, sowohl FC- als auch Ethernet-Fabrics funktionieren einfach, daher ist dies kein Kriterium für die eine oder andere Lösung. Legt man im eigenen Datacenter den Maßstab weniger ist mehr ebenso an, so ist das Ergebnis durchaus eindeutig und eine auf Ethernet basierende Technik im Vorteil. Zudem ist der Wechsel von iSCSI hin zu RoCEv2 ein eher kleinerer Schritt, wo hingegenen der Schritt im Bereich FC von 8G oder 16G hin zu 32G oder gar 64G ein ganz anderer ist und massive Kosten verursacht. Moderne Ethernet-Fabrics im Rechenzentrum bieten 10, 25, 40, 100 und mehr Gbps zu deutlich weniger Kosten, sind zukunftssicher, konsolidieren gleichzeitig die Netzwerkinfrastruktur und optimiert somit die Schulungen und das Knowhow der Mitarbeiter. Ein weitere Punkt, der für Ethernet spricht sind NAS Lösungen, hier zu nennen ist zum Beispiel S3 oder Ansätze aus der OpenSource Welt wie GlusterFS oder Ceph.
Wichtig vor allem ist das große Ganze zu betrachten und sich auf das Wesentliche zu konzentrieren. Dazu gehört es dann unnötige und zu komplexe Systeme zu identifiziere und diese dann zu eliminieren, in dem man klare Strukturen schafft. Zum großen Ganzen gehört auch der Blick zu den Clouds und zu den modernen Ansätzen der Containerisierung von Applikationen, insbesondere deren affinität zu S3 in bestimmten Bereichen, was auch alles einfluß auf das zukünftige Aussehen des Datacenter nimmt. Ein klares, strukturiertes und durchdachtes Design in den verschiedenen Bereichen der Ressourcen, die dann dem Bedarf entsprechend skalieren und sich auch automatisieren lassen, ist der Weg, den es einzuschlagen gilt. Eine moderne Basisinfrastruktur braucht keine hohe Komplexität oder zusätzlich Software Layer um performant, zuverlässig und hochverfügbar zu sein. Moderne Systeme bieten alle notwendigen Funktionen ohne unnötige Komplexität. Der Wandel ist eigentlich schon da und zeigt sich besonders deutlich im Bereich Storage und dessen Entwicklungsschüben der jüngeren Vergangenheit. In der nächsten Zeit dürfte es noch den einen der anderen Innovationsschub geben, der viel näher als vielleicht angenommen ist, vor allen Dingen für diejenigen deren Technik stehen geblieben ist. Der eine oder andere von ihnen sieht noch nicht mal mehr die Rücklichter des Zuges der abgefahren ist.