Diese Freiheit für Vision und beim Design hat man selten. Vor allem birgt diese Freiheit einen der wichtigsten Punkte in sich, denn sie befreit von Altlasten, die berücksichtigt werden müssen und vor allem beinhaltet diese Freiheit keine technischen Schulden die oft als Bumerang bei Neuerungen gnadenlos zurückschlagen. Jetzt gilt es aber diese Freiheit nicht leichtfertig zu verspielen, die IT nicht zum Selbstzweck verkommen zu lassen und auch von Anfang an der Komplexität Einhalt zu gebieten. Wem sich aber eine solche Möglichkeit eröffnet darf sich trotz der Verantwortung aber auch glücklich schätzen so gar keine (technischen) Zwänge vorzufinden.
Als erster Schritt in diesem Szenario gilt es die Anforderungen so genau wie möglich zu beschreiben, was will man mit dem Einsatz der IT erreichen? Die nächste Frage ist, mit welchen Endgeräten möchte man dies tun, wie sollen die Anwender auf die Ressourcen zugreifen? Hier stellt sich als nächstes die Frage, will man von Anfang an gleich neue Wege gehen? Da man auf der „grünen Wiese“ startet, muss hier die Antwort natürlich „ja“ sein, man will neue Wege gehen, da keine Abhängigkeiten bestehen, auf die man Rücksicht nehmen muss. Das wiederum bedeutet dann, dass der Zugriff durch mobile Geräten wie Tablet‘s & Co. mit ihren entsprechenden Apps und auf Seite des PC, Notebook usw. mit dem Browser erfolgen muss. Lokal installierte Applikationen scheiden in einem solchen Szenarien aus, da sie einfach zu unflexibel sind und einen viel zu hohen administrativen Aufwand beinhalten. Das gleiche gilt für aufwendige VPN Designs, diese sollten nur für Backbones und Core Verbindungen genutzt werden, für alle Verbindung der Clients bzw. der Anwender zur den Applikationen ist https (TLS) das Mittel der Wahl.
Durch die Nutzung von https bzw. TLS stellt sich auch erst garnicht die Frage ob die Cloud genutzt wird oder nicht. Es stellt sich nur die Frage ob Public, Private oder eine Hybrid Cloud in Frage kommt. Aller Voraussicht nach wird es aus folgenden Gründen auf eine Hybrid Cloud hinauslaufen:
Angefangen beim Thema der Kommunikation; da keine Abhängigkeiten bestehen, können direkt Messenger wie zum Beispiel Slack für die interne Kommunikation genutzt werden. Die klassische eMail wird zwar nach wie vor benötigt, jedoch kann man hier gleich auf einen Public Cloud Service wie zum Beispiel MS Exchange in Verbindung mit Office365 setzen und sich den aufwendigen Betrieb eines eigenen Mailsystems sparen. Mit Office365 besteht zudem die Option Teams statt Slack zu nutzen und es eröffnet parallel die Möglichkeit die klassischen Office Dokumente ebenfalls in der (Office365) Cloud zu belassen um sich auch hier von den Zwängen einer lokalen Dateiablage zu lösen. Wer hingegen ohne Microsoft auskommen will, kann als Alternative zur Google G Suite greifen, die auch entsprechende Services zur Verfügung stellt. Dies bedeutet aber, wie bei Microsoft auch, den Einsatz der Public Cloud für diese Dienste. Ungewöhnlich ist dies aber nicht, selbst die New York Times hat erst kürzlich vom eigenen Mailsystem aus Basis von MS Exchange zu Gmail gewechselt, u.a. waren zu hohe Kosten für den eigenen Betrieb der Server und die Sicherheit des Dienstes Argumente für den Wechsel. Die NYT sah sich außer Stande das von Google gebotene Sicherheitsniveau zum Schutz des Dienstes vor Angriffen aus eigener Kraft sicher zu stellen, wie auch die entsprechende Verfügbarkeit des Dienstes mit eigenen Ressourcen bereitstellen zu können.
Der Weg zur Cloud gilt analog auch für die ERP Systeme. Hier ist der Trend in die verschiedenen Clouds mehr als nur deutlich zu erkennen. Microsoft zum Beispiel stellt in Zukunft nur noch in der eigenen Cloud den vollen Funktionsumfang von Dynamics zur Verfügung. Bei den anderen Anbietern sieht es bereits ähnlich aus oder es wird für die zukünftigen Versionen der Weg in die Cloud geplant. Auch wenn man auf der grünen Wiese startet, muss man sich wohl damit abfinden, dass es mittel- bis langfristig auf Abo-Modelle bei vielerlei Anwendungssoftware hinauslaufen wird. Dies gilt sowohl für Anwendungen die lokal als auch denn in der Cloud betrieben werden. Immer weniger Produkte in diesem Bereich werden noch klassisch als zum Kauf einer Lizenz angeboten.
Damit begibt man sich jedoch in eine Art der Abhängigkeit, die viele nicht wünschen und aus völlig nachvollziehbaren Gründen diese Abhängigkeit nicht zu groß werden lassen wollen. Zwar war die Abhängigkeit auch bei den Kauflizenzen auch da, aber eben nicht in der Form eines Abo-Modells. Aber realistisch betrachtet, wird man sich dem wohl nicht entziehen können, wenn man die nur so vertriebene Software einsetzen will oder muss. Eine Antwort gegen diese Abhängigkeit ist das eigene Intranet auf Basis von OpenSource oder wenigsten der Besitz des Codes des eigenen Intranets. In den meisten Fällen dürfte es jedoch auf den Einsatz von OpenSource für das gesamte Intranet hinauslaufen. Hier sollte man aber, wenn dies möglich ist, von Anfang an auf Microservices und vor allem auf Container setzen. Der Grund ist nicht, dass Container gerade mal ein Hype-Thema sind, sondern liegt vielmehr auf der Portabilität der Anwendungen. Läuft die eigene IT weitestgehend in Container, dann eröffnet dies einen sehr einfachen Weg in Richtung einer Public Cloud, wenn man diesen Weg denn gehen will oder gar muss. Aber auch ohne die Public Cloud am Horizont bieten Container eine sehr große Flexibilität und dies bei einer gleichzeitigen Reduktion der Komplexität in der eigenen Serverumgebung, also dem eigenen Rechenzentrum. Das Thema Komplexität spielt ebenfalls eine wichtige Rolle. Weniger Komplexität, einfache und klare Strukturen zeichnen ein gutes Design einer IT Infrastruktur aus.
Die Freiheit der grünen Wiese eröffnet somit auch im Datacenter den Weg hin zum Software Defined Datacenter (SDDC) und sollte auch als Option gezogen werden. Zu einem SDDC gehören die Service wie Compute, Storage und Netzwerk, die in Software und somit vollständig skalierbar abgebildet werden. Man startet mit dem was man im ersten Schritt braucht und fügt dann weitere Ressourcen hinzu, wenn diese benötigt werden. Dieses Prinzip gilt aber uneingeschränkt für alle Hyperconverged Infrastructure (HCI) Lösungen.
Moderne HCI Systeme gibt es sowohl im Bereich der virtuellen Maschinen, die aber hier schon eher zum Standard gehören, aber auch, und das ist neu, bei Systemen, die für den Betrieb von Containern vorgesehen sind. Redhat ist hier ein Anbieter der die Zeichen der Zeit erkannt und sein Portfolio entsprechend erweitert hat. Dazu gehört auch der Kauf von CoreOS und Herstellern im Storage Bereich von Cloud Storage und Deduplizierung. Wer in Richtung Container gehen möchte aber auch gleichzeitig gerne kommerziellen Support haben möcht, sollte sich die Angebote von Redhat genauer ansehen, für alles andere bietet sich CentOS an.
Auch wenn man auf der grünen Wiese startet, so muss man sich Gedanken um das Speichern von Daten machen. Auch in Zeiten der omnipräsenten Cloud möchte man bestimmte Daten vielleicht doch nicht in der Public Cloud ablegen aber trotzdem die Flexibilität eines solchen Speichers haben. Hier bleibt nur der Weg in Richtung Own- bzw. NextCloud oder Seafile. Es kommt aber immer auch darauf an, wie verteilt oder zentral die eigenen Anwender sind. Bei verteilten Strukturen bleiben nur die Cloud Services als zentraler Punkt. Bei eher zentralen Strukturen spielen auch wieder lokale Speicher eine wichtige Rolle. Aber hier gibt es keine pauschale Lösung, denn diese muss immer zu den Anforderungen und in Verbindung zu den Datenvolumina passend gewählt werden. Bei eher kleinem Datenvolumen kann es noch ein mehr oder weniger klassischer Share sein. Aber ist hier schon eher die Tendenz hin zu WebApplikationen zu erkennen, ist ggf. schon zu Beginn ein Object Store die doch bessere Wahl, die es auf jeden Fall sein dürfte, je mehr Daten es sind. Beim Thema Daten gilt bei aller Moderne und den neuen Wegen das doch eher ganz klassische Thema Backup zu den wichtigsten Themen überhaupt. Denn im Fall der Fälle muss ein Backup am Ende des Tages funktionieren. Daher sollte man ausreichend Zeit diesem doch so wichtigen Punkt widmen. Es gibt viele Dinge zu beachten und hier spielt es keine Rolle, ob es “nur” Backup to Disk oder auch to Disk&Tape ist. Trotz des so klassischen Themas gibt es sie auch hier, die modernen Ansätze, um die anstehenden Probleme besser und vor allem auch effizient lösen zu können.
Dieser Beitrag hier soll aber keine Blaupause für den Aufbau einer IT auf der grünen Wiese sein und schon gar nicht eine universell gültige Lösung darstellen. Vielmehr ist die Intention hinter dem Beitrag die IT mal von einem neuen Blickwinkel zu betrachten und den mehr als 20 Jahre alten Apple Slogan nochmal zu bemühen: Think different – Denke das Andere.
Viele IT Umgebungen sind in ihren Grundsätzen in den 90’er Jahren stehen geblieben, wenn sie zugleich durch neue Techniken modernisiert wirken. Aber im Kern, und das ist entscheidend, sind es alte Client/Server Strukturen, mit auf den Clients installierter Anwendungssoftware mit all dem dahinterstehenden Aufwand in Wartung und Pflege. Grundsätzlich funktioniert dies ja auch so, die Anwender können ihrem Tagesgeschäft nachgehen. Aber es könnte besser funktionieren und gleichzeitig die Tür für eine IT öffnen, bei der das Endgerät nicht mehr wirklich eine große Rolle spielt. Natürlich ist es in gewachsenen Strukturen unheimlich schwer Änderungen herbeizuführen und vor allem die Akzeptanz der Anwender dabei zu bekommen, denn auch hier ist es nicht einfach gewohnte Strukturen zu ändern. Sollte man daher die Gelegenheit einmal haben, mit auf der grünen Wiese zu starten, ergreifen sie die Chance und think different.
Wie immer erreichen Sie uns ganz traditionell per eMail.