Die aktuellen Entwicklungen in der Welt rücken den Einsatz von Open Source Software wieder in den Fokus von IT-Abteilungen. Die Nutzung von OpenSource Software hat beim passenden Anwendungszweck nur wenig Nachteile aber dafür viele Vorteile. Besonders ist hier die Stärkung der digitalen Souveränität, der eigenen Resilienz und natürlich auch die Zuverlässigkeit, Anpassbarkeit und Stabilität zu nennen. Nicht zuletzt kann Open Source Software bei der aktuellen Liefersituation in der IT zusätzliche Vorteile bieten.
Um es gleich vorwegzunehmen, in diesem Artikel geht es überhaupt nicht darum, alles an kommerzieller Software mit Open Source Software zu ersetzen und es wird auch keine ideologische Grundsatzdiskussion zu diesem Thema losgetreten, denn genau darum geht es hier eben nicht. Es geht vielmehr darum, den Blick zu erweitern, über den Tellerrand hinauszuschauen und Open Source Software dort einzusetzen, wo es sinnvoll und wichtig ist. Die Überlegung für den Einsatz ist dabei ganz pragmatisch. Natürlich kann man mit Open Source Software eine AD nachbauen, aber bei all den Aufwänden, Fallstricken und notwendigen Workarounds ist es wesentlich einfacher, wartbarer und effizienter eine Microsoft AD ob lokal, hybrid oder in Azure nach Best Practice in Betrieb zu nehmen und diese entsprechend den Vorgaben zu härten. Dies ist ein gutes Beispiel dafür, wo Open Source Software technisch und wirtschaftlich keinen Sinn ergibt und genau aus diesem Grund fällt dann die Entscheidung zu Gunsten des kommerziellen Produkts. Daher sollte die ganz klare Abgrenzung anhand der technischen und wirtschaftlichen Erfordernisse erfolgen. Was aber auch bedeuten kann, dass aus Gründen der Resilienz oder der Datenhoheit der scheinbare Mehraufwand gegenüber dem kommerziellen Produkt sich auf diesem Hintergrund technisch und wirtschaftlich doch lohnt, weil es zur notwendigen Unabhängigkeit von Dritten beiträgt. Wenn wir aber schon beim Thema Tellerrand sind, so gelten die Überlegungen für der Einsatz von Open Source Software nicht nur im Bereich der Applikationen, sondern auch bei der Infrastruktur. Diese bietet sich beim Einsatz in virtuellen Umgebungen an. Je nach Szenario braucht es nicht immer physikalische Router, Gateways oder Firewalls. Selbst bei großen Maßstäben ist dies seit Jahren der Fall, denn gerade die Hyperscaler zeigen dies in den Umgebungen für ihre Kunden und auch für sich selbst. Vor allem spielt in diesem Bereich die Open Source Software eine sehr große Rolle, zum Beispiel ist die Basis von AWS KVM, welcher Xen abgelöst hat. Zwar ist der AWS-Stack nicht komplett Open Source, wie es bei GCP annähernd der Fall ist, aber selbst bei MS Azure steckt viel Open Source Software unter der „Haube“. Bei Google dürfte mittlerweile gut die Hälfte des Peering Traffics in Software abgewickelt werden, weil ihnen virtuelle Router viel mehr an Flexibilität und durch die Skalierung auch mehr an Leistung bieten und sie damit ihre physikalischen Systeme abgelöst haben. Da nun mal nicht jeder Datacenter in der Größenordnung von Google & Co. betreibt, ist trotzdem das Thema Leistung bei den heutigen Infrastrukturen für viele eigentlich gar keins mehr. Die Ressourcenengpässe in den Stacks bei den Unternehmen sind häufiger bei Speicherkapazitäten und RAM-Auslastung zu verorten als bei CPU, Netzwerk oder Storage-IO Ressourcen. Daher ist die Virtualisierung von Netzwerkfunktionen ein durchaus probates Mittel sich von kommerziellen Produkten zu lösen, wenn die Anforderungen dies erlauben, zudem können auch so Probleme durch Lieferengpässe kompensiert werden. Gerade die Basisanforderungen decken die Open Source Systeme vollständig ab und bieten häufig noch ein sehr großen Funktionsumfang, der über diese Basis weit hinaus geht. Natürlich haben kommerzielle Anbieter, wie in unserem Fall für den Bereich Firewall mit Fortinet, ihre Vorteile, die sich direkt aus den Anforderungen ableiten. Diese Anforderungen können sein, hardwarebeschleunigte Netzwerkverarbeitung, Verschlüsselung und IPS, URL- und DNS-Filter oder Anforderungen an die Leistung mit Multi 10Gbps oder mehr, was oft virtuelle Systeme bei Unternehmen mit einer überschaubaren Anzahl von ESX Hosts nicht leisten können bzw. es keinen Sinn macht aus dem Blickpunkt der Energiekosten. Gerade beim Energiebedarf sind physikalische Fortigates sehr effizient. In diesem Fall greifen dann sofort die eingangs genannten Punkte, was technisch und wirtschaftlich sinnvoll ist, was aber eben auch die Energiekosten mit einschließt. Geht es um Durchsätze, die deutlich kleiner 10Gbps sind, so bieten sich auch virtuelle kommerzielle Firewall an. In der Regel gibt es hier kein Problem bei der Beschaffung, weil irgendwelche Komponenten fehlen. Sowohl effiziente Hardware als auch der Einsatz virtueller Systeme haben einen positiven Einfluss auf die Energiekosten. Denn diese rücken bei den aktuellen Preisen die die Versorger aufrufen immer mehr in den Fokus. Daher ist eine wichtiges Auswahlkriterium bei Komponenten ihr Energieverbrauch, der im Rechenzentrum mit ca. dem Faktor 1,8 zu Buche schlägt, um die Kosten für die Klimatisierung zu berücksichtigen. Im Falle virtueller Komponenten, wenn die Bandbreiten deutlich unter 10Gbps liegen, ist der Energieverbrauch in der Regel unter dem, was ein dediziertes physikalisches System benötigt, und in manchen Fällen ist dies sogar sehr deutlich. Vor allem dann, wenn es um mehrere Systeme geht und bei jedem einzelnen Verlustleistung am Netzteil entsteht und bei der Wärmeabgabe die sich dann aufsummieren.
Der Einsatz von Open Source Software kann heute in so gut wie allen Bereichen der IT und aber auch OT erfolgen. Webapplikationen sind seit je her die Domäne des Open Source Bereichs, wo die Stacks schon eigene Abkürzungen, wie LAMP haben. Wie weit die Integration schon ist, zeigen auch kommerzielle Produkte die zum Beispiel auf Linux oder auf BSD-Derivaten aufsetzen. Ob Atlassian oder Oracle, um nur zwei zu nennen setzen auf eine Linux Basis auf. Mittlerweile gibt es von Microsoft eine Version ihrer SQL-Datenbank, die nativ auf Linux betrieben werden kann. Aber gerade das Thema Datenbanken und Open Source bietet so viele Möglichkeiten, dass es gar nicht erst eine kommerzielle Version sein muss. Hier ist Postgres zu nennen, die für so viele und auch kommerzielle Produkte die Datenbasis bereitstellt. Gerade hier gibt es so viel Potential was nur genutzt werden müsste. Leider gibt es nach wie vor noch viele Anbieter von Branchensoftware oder ERP-Systemen, die auf kommerzielle Datenbanken und das meist unter Windows zum Nachteil ihrer Kunden setzen. Im Datacenter mit entsprechenden Microsoft Lizenzen spielt es zwar keine Rolle ob nun eine Windows Server mehr oder weniger betrieben wird, aber bei der Datenbank schon. Denn diese wird je nach Lizenzmodell per User oder Socket lizensiert und das fällt bei einer Open Source Datenbank komplett weg und man kann Ressourcen ohne Beschränkung durch die Lizenz zuweisen, wie diese benötigt werden und das vor allem ohne zusätzliche Kosten. Wenn es einen Punkt gibt, über den man mit Sicherheit in diesem Zusammenhang nicht diskutieren muss, ist es die Zuverlässigkeit von Open Source Datenbanken, die auch für geschäftskritische Anwendungen mehr als nur geeignet sind. Dies gilt auch für Linux selbst, hier reicht ein Blick zu IBM mit ihren schon so oft totgesagten Mainframes, die es immer noch gibt und sehr häufig mit Linux genutzt werden. Über die Punkte wie Stabilität, Zuverlässigkeit und die Fähigkeit im Enterprise Umfeld genutzt werden zu können ist die Diskussion rund um Linux schon lange hinweg, es gibt primär um andere Überlegungen, die auf dem Hintergrund der geänderten Lage in der Welt neu bewertet werden müssen und dabei spielt Open Source eine sehr wichtige strategische Rolle. Dies gilt uneingeschränkt für die Nutzung von Cloud-Diensten. Kann man sich so aufstellen, dass es keine direkten Abhängigkeiten gibt und der Hyperscaler beliebig austauschbar ist, spricht nichts gegen den Einsatz von Cloud-Diensten wie Azure, AWS, GCP & Co. Realistisch betrachtet gibt es aber eine Abhängigkeit, die sich für so gut wie alle Unternehmen nicht auflösen lässt; Microsoft bzw. Azure inkl. Microsoft365 bzw. Office365. Auch wenn dies zum aktuellen Zeitpunkt erst einmal alternativlos so ist, so muss man andere kommerzielle Abhängigkeit ja nicht weiter vorantreiben, wenn es unter einer objektiven technischen und wirtschaftlichen Betrachtung bessere Option gibt. Ein weiterer sehr wichtiger Punkt ist der Einsatz von Container, denn hier ist die Plattform darunter wirklich austauschbar und hat eben nicht die Abhängigkeiten wie sie VMs haben. Selbst ein Wechsel der Architektur ist mit Containern simpel und dies kann einen erheblichen Einfluss auf die Energiekosten haben. Bei vergleichbarer Leitung sind ARM-Architekturen im Vergleich zur x86-Plattform wesentlich Energieeffizienter. Dafür braucht es keine großen Studien, das Beweisen schon die Smartphone, Tablets und auch die M1 und M2 ARM-SoC’s von Apple. Selbst ein Raspberry Pi hat mehr als ausreichend Leistung für die verschiedensten Aufgaben und das bei einem wirklich überschaubaren Stromverbrauch. Ganze Hausautomationen können damit problemlos und komfortabel gesteuert werden, was uns direkt wieder zum Thema Open Source führt. Denn hier ist der Open Source Ansatz sehr weit verbreitet und der Einsatz von Containern spielt ebenfalls eine wichtige Rolle. Unabhängig vom Thema Open Source sind Container eine Schlüsseltechnologie, obwohl sie in vielen Fällen einander bedingen. Der Einsatz von Containern und dies noch in Kombination mit Open Source macht die darunterliegende Plattform austauschbar und die Container können lokal oder bei einem beliebigen Hyperscaler betrieben werden. Somit entsteht kein Lock-in zu einem bestimmten Anbieter und die Datenhoheit verbleibt beim Unternehmen, was die eigene Souveränität stärkt.
Daher ist der Einsatz von Open Source Software in vielerlei Hinsicht ein wichtiges strategisches Mittel einer resilienten und souveränen Ausrichtung der IT bei den Herausforderungen der Digitalisierung.