Netzwerkinfrastruktur in Software

Die Cloud macht es vor, wer hier ein Gateway, eine Firewall, einen LoadBalancer oder andere Netzwerksysteme benötigt, bekommt diese als virtuellen Service und somit in Software bereitgestellt. Anders wäre diese Flexibilität auch nicht möglich, solche Service von jetzt auf gleich zur Verfügung zu stellen und diese bei Bedarf skalieren zu lassen. Da auch immer mehr eine solche Flexibilität im eigenen Rechenzentrum oder in der Colocation gefordert wird, stellt die Verwendung von Software statt Hardware eine gute Option da, dieser Anforderung gerecht zu werden.

Der Einsatz virtueller Netzwerkkomponenten findet in den meisten lokalen Rechenzentren in Form von virtuellen LoadBalancer, Application Delivery Controller (ADC), Reverse Proxy, Web Application Firewalls (WAF) usw. schon lange statt und die Liste kann beliebig erweitert werden. Zudem wird so gut wie jeder andere Payload von virtuellen Maschinen oder Applikationen in Containern verarbeitet. Daher ist es nur noch ein kleiner Schritt, um andere Netzwerkfunktionen virtuell abzubilden und bereitzustellen. Das haben auch Hersteller wie VMware erkannt und schon vor ein paar Jahren in entsprechende Technologien investiert und Startups wie Nicira oder Avi Networks eingekauft. Nun aber eignet sich NSX(-T) von VMware nicht gleich für jedwede Größe von virtuellen Infrastrukturen. Hier gilt es genau zu prüfen, ob die massive Erhöhung der Komplexität und den damit verbundenen Kosten der entsprechenden Lizenzmodelle die Vorteile dieser Software Defined Network (SDN) Lösung aufwiegt und somit deren Einsatz sinnvoll ist. Objektiv betrachtet ist NSX allein auf der technischen Ebene für die meisten mittelständischen Unternehmen zu Komplex und im Bereich KMU eigentlich gar keine Option. Die Vorteile von NSX kommen erst ab einer entsprechenden Größe der Umgebung und bei entsprechend häufigen Anpassungen zum Tragen, vor allem dann, wenn es zudem auch noch um einen hohen Grad an Automatisierung geht. Trotzdem müssen jetzt alle, die diesen Kriterien nicht entsprechen oder viel kleinere Anforderungen haben, nicht auf ein SDN und somit auf ein Software Driven Datacenter (SDDC) verzichten. Im Gegenteil, es gibt auch Lösungen, die für diese kleineren Umgebung geeignet sind und entsprechenden Funktionalitäten für deren Anforderungen bieten.

Wenn man so wie ich zu einer Zeit in der IT angefangen hat, in der Router oder Firewalls immer etwas zum Anfassen waren, muss man sich erst mit dem Gedanken anfreunden, dass es auch virtuell und ausschließlich in Software geht. Die großen Clouds zeigen es, dass es komplett und konsequent in Software geht. Google nutzt SDN schon seit Jahren und im Besonderen auch für das (eigene) Peering mit dem Projekt Espresso. Der Beweis, dass virtuelle Netzwerkkomponenten ebenso in der Lage sind, die Anforderungen zu erfüllen ist schon längst angetreten. Auch wir können da aus eigener Erfahrung sprechen, da wir schon seit mehreren Jahren erfolgreich virtuelle Systeme in unseren oder auch in den Rechenzentren unsere Kunden einsetzen und die flexibilität und deren Leistungsfähig zu schätzen gelernt haben. Aber da sind wir nicht alleine, in der jüngeren Vergangenheit kommen in den Kundenprojekten, bei denen wir unterstützen, zum Beispiel vermehrt virtuelle Session Border Controller zum Einsatz, die ihre Telefonie auf SIP-Trunk umstellen. Der Einsatz virtueller Telefonanlage ist seit Jahren schon Standard, nun kommen virtuelle Session Border Controller hinzu und ersten damit die physikalischen Geräte. Daher stellt sich aktuell nicht mehr die Frage, ob es funktioniert, sondern nur die Frage, ist es technisch sinnvoll unter den vorhandenen Rahmenbedingungen. Betrachtet man die Kosten, sind die virtuellen Lösungen in den meisten Fälle sogar kostengünstiger und dies nicht nur in der Anschaffung, sondern auch bei der Implementierung und bei den Betriebskosten. Effizienz ist ein wichtiger Faktor und die Energiekosten haben einen entsprechenden Anteil daran. Auf Software basierende Lösungen sind in der Regel deutlich flexibler, da benötigte Funktionen oder mehr Ressourcen sehr schnell “nachgerüstet” werden können. Bei physikalischen Systemen ist das mit einer Nachrüstung immer so eine Sache und läuft häufig auf einen Tausch der Hardware hin zum größeren Modell hinaus. Durch die Ressourcen des Stacks der Infrastruktur im Rechenzentrum ergeben sich völlig andere Möglichkeiten. Zum einem kann man den virtuellen Systemen einfach mehr Ressourcen zuweisen und es besteht die Option zusätzlich in die Breite zu skalieren. Dieses funktioniert dann auch dynamisch, wenn der Bedarf benötigt wird. Zudem können über den Stack die notwendigen Redundanzen abgebildet werden. Die Nachfrage nach virtuellen Lösungen ist zweifelsohne durch die Clouds gestiegen, viele Netzwerkausstatter bieten zu ihren physikalischen Appliances auch immer eine virtuelle Variante an. Dabei ist zu erkennen, dass die Unterstützung der verschiedenen Hypervisor sehr ausgeprägt ist, wie auch die Unterstützung der einschlägigen Hyperscaler. Diesen Aufwand würde kein Hersteller treiben, wenn es dazu keine entsprechende Nachfrage geben würde bzw. der Bedarf sich abzeichnet.

Bei neuen Projekten sollte daher zumindest immer die Überlegung angestellt werden, ob nicht auch der Einsatz einer passenden virtuellen Komponente möglich ist oder sich die Kombination aus virtuellen und physikalischen Komponenten sinnvoll verbinden lässt. Dabei ist aber genau zu prüfen, welchen Einfluss eine virtuelle Komponente für die Wiederinbetriebnahme der Umgebung zum Beispiel nach einer Stromabschaltung hat, da diese natürlich vom Stack im Datacenter abhängig ist. Ein Henne/Ei-Problem gilt es in jedem Fall zu verhindern. In sehr vielen Fällen ist durch ein passendes Design der Infrastruktur, ein Einsatz virtueller Systeme problemlos möglich. Nutzt man hier die Möglichkeiten, die von OpenSource bis hin zu kommerziellen Lösungen zur Verfügung stehen, ergeben sich sehr viele Optionen das eigene Datacenter deutlich flexibler zu gestalten. Als Synergieeffekt bekommt man je nach Design eine Multi-Vendor Strategie umgesetzt und erhöht zudem die IT-Sicherheit bei der passenden Produktauswahl. Auf der administrativen Seite ergeben sich Vorteile durch Snapshots und die Aufnahme der virtuellen Komponenten in die zentrale Datensicherung der virtuellen Umgebung. Eine weitere Flexibilität ergibt sich aus der Möglichkeit verschiedene Hypervisor nutzen zu können und so auch hier nicht zwingend einen Vendor-Lock zu haben. Ein Nachteil soll aber trotzdem nicht verschwiegen werden, auch wenn dieser für die meisten oder so gut wie alle Umgebungen, auf die in diesem Beitrag Bezug genommen wird, nicht relevant ist. Die Anzahl der pps ist für eine einzelne virtuelle Instanz oder auf einer normalen x86’er CPU basierenden Plattform geringer als bei den physikalischen Pendants mit Fabrics und ASIC’s, dies nur zur Vollständigkeit. 

Bei Fragen zum Thema stehen wir wie gewohnt zur Verfügung.