Langfristig wird die IT der Zukunft in der Cloud beheimatet sein, nicht nur für gewerbliche Kunden aus den USA, sondern auch aus Europa, was Deutschland miteinschließt, und natürlich auch aus dem Rest der Welt. On-Prem werden bei Industrieunternehmen nur noch produktionsnahe Dienste betrieben, damit bei Verlust der Konnektivität die Produktion davon nicht unmittelbar beeinträchtigt wird. Alle anderen Unternehmen haben lokal so gut wie keine oder eher nur noch unwichtige Server Dienste. Alle anderen Services sind in der Cloud beheimatet. Netzwerke, Router, Firewalls, Application Delivering, Container, Apps und vor allem die IT Security werden die primären Themen der zukünftigen IT sein. Der Betrieb des Rechenzentrums an sich rückt immer weiter aus dem Focus der IT Abteilungen, langfristig wandeln sich die Aufgaben.
Warum die Cloud?
Warum es Unternehmen in die Cloud zieht hat teilweise sehr pragmatische und vor allem auch wirtschaftliche Gründe. Dazu gehören vorne weg die eher geringen Kosten beim Start in die Cloud. Gerade dann, wenn man nicht weiß wohin die Reise der eigenen IT geht, wie sich die Standorte der Niederlassungen entwickeln oder man auch noch gar nicht weiß, welche Applikationen es denn sein werden. Die Ressourcen in einem lokalen Rechenzentrum vorzuhalten, was im Sizing zu Beginn viel zu groß war, ist für viele Unternehmen kaum noch zu bezahlen und später steigen die Kosten zusätzlich, wenn die Ressourcen nicht mehr ausreichen und diese erweitert werden müssen. Da kommen die Pay-what-you-use Szenarien und die dynamische Skalierung mehr als nur gelegen und stellen für die meisten die passende Lösung dieses Problems da. Hier zeigt sich dann, dass die Schlagworte SDDC, SDN, NFV, Mikroservices, Container usw. Realität sind, denn all dies kann schon jetzt produktiv genutzt werden.
Ein weiterer Grund für viele Unternehmen ist die Anforderungen weltweit Applikationen zur Verfügung zu stellen müssen. Weltweite ScaleOut Modelle aufzubauen und in Eigenregie mit eigener Hardware zu betreiben, können die meisten mittelständischen Unternehmen mit ihren IT Teams nicht stemmen. Die Komplexität einer solchen Anforderung übersteigen oft die Ressourcen und das KnowHow der eigenen IT. Alleine die Konzeptionierung eines solchen Vorhabens ist häufig schon zum Scheitern verurteilt. Dazu kommt die Komplexität der heutigen IT Infrastruktur im Allgemeinen und im Besonderen im Rechenzentrum sowie die Vervielfachung in einem globalen Szenario. Hier muss auch berücksichtigt werden, dass es zu Beginn ja eine Hybrid Cloud ist, denn das oder die eigenen Rechenzentren sind ja vorhanden und müssen integriert werden. Selbst vermeintlich so kleine Dinge wie “nur” das IP und Routing Konzept, ist weltweit gesehen schon eine Herausforderung. Ein solches Konzept geht weit über statische Routen hinaus. Vor allem dann, wenn Ausfälle kompensiert und globales Load Balancing oder Application Providing zum Einsatz kommen sollen.
Viele dieser Probleme werden später durch „die Cloud“ gelöst, denn der Anbieter hinter der Cloud kümmert sich um alles, was für den Betrieb notwendig ist. Man kann einfach Container oder wie Google es mit GCP anbietet, einfach seinen Code online bringen und sich praktischer Weise nicht mehr um die Infrastruktur kümmern müssen. Gerade bei Projekten mit mehr oder weniger öffentlich publizierten Daten und Diensten bietet sich die public Clouds gerade zu an. Bei sensiblen Daten sieht es doch noch etwas anders aus, was gerade in diesen Fällen wichtig ist und man sich dessen bewusst werden muss – es sind nunmal die eigenen Daten. Diese Daten möchte man nicht einfach so in die public Cloud legen. Die private Cloud ist hier das Mittel der Wahl oder ein Konzept, welches die Daten in den großen Clouds passend schützt. Im Fall der private Cloud stellt man beim Rechenzentrumsbetreiber seines Vertrauens seine Systeme ein oder mietet diese und spart sich den physikalischen Betrieb des eigenen Rechenzentrums. So weiß man wo seine Daten liegen und wem die Systeme gehören und somit wer Zugriff auf diese hat. Zwar bekommt man so einen Teil der Komplexität wieder aufgebürdet, wie auch Teile des Betriebs an sich. Aber bei sensiblen Daten sollte dies es einem Wert sein, zumal man mit dem Anbieter seines Vertrauens auch einen Partner hat, der einem beim Betrieb unterstützt und vieles an Aufgaben abnehmen kann. Benötigt man schnell vorzeigbare Ergebnisse bleibt nur die Nutzung eines der großen Cloud Anbieter, dies aber am besten in Kombination mit der eigenen private Cloud. Je nach Konzept lassen sich so die Dienste im Frontend von denen im Backend und den Daten trennen. Die sensiblen Daten liegen auf eigenen Systemen, wo diese auch immer stehen und die public Cloud wird zum Ausliefern der Services an sich verwendet. So kann man von der geringen Latenz der weltweiten Datacenter des Anbieters profitieren ohne sich gänzlich dem Anbieter auszuliefern. Man bleibt Herr über die eigenen Daten was auch im Zeitalter der Cloud ein sehr wesentlicher Punkt ist und bleibt.
Aus diesen Gründen wird das eigene On-Prem Rechenzentrum in der heutigen Form langfristig immer mehr an Bedeutung verlieren und viele Dienste wandern in Richtung einer dieser Clouds ab. Es wird Zeit die aktuell nur modernisierte 90’er Jahre IT hinter sich zu lassen. Es ist zwar nicht so, dass die aktuelle IT schlecht ist, aber die Rahmenbedingungen haben sich mehr als nur deutlich geändert. Besonders in der Arbeitswelt, hier muss sich die IT einfach anpassen und der Mobilität, der Flexibilität und den Wünschen der Menschen an ihren Arbeitsplatz Rechnung tragen. Was oder wer sonst, wenn nicht die IT, kann dies leisten? Wir leben in einer Zeit des Umbruchs, gerade in der Arbeitswelt und auch im privaten Leben. Industrie 4.0 und IoT sind die Schlagworte die omnipräsent sind.
Was muss sich ändern?
Die Applikationskultur muss sich ändern, vor allem in den Köpfen. Besonders schwer fällt es denjenigen die mit lokalen Applikationen, nicht Apps, groß geworden sind. Es war ganz normal, dass die Anwendung auf dem eigenen PC installiert war und betrieben wurde. Die Daten wurden auf der eigenen Festplatte abgelegt, im besten Fall noch mit einer Sicherung auf einem Netzlaufwerk. Auf diesem Denkansatz beruht in vielen Fällen auch immer noch der Betrieb des lokalen Rechenzentrums. Alles liegt lokal aber im eigenen Rechenzentrum. Das Argument für diesen Betrieb, was oft angeführt wird ist, dass man im Notfall auch ohne Internet arbeiten kann. Aber dieses Argument ist schon lange keines mehr, denn nein, kann man nicht, man hat nur das Gefühl, dass man es könnte – es ist aber in Wirklichkeit nur eine Illusion. So viele Ressourcen und für den Betrieb nötigen Dienste sind nur online zu erreichen, dass man ohne Internet nicht wirklich arbeiten kann. Natürlich kann man noch einen Text schreiben, aber selbst eine lokale Anwendung greift wesentlich häufiger auf Ressourcen im Internet zu als man vielleicht denkt. Daher stellt sich die Frage gar nicht, denn ohne Internet hat man keinen Zugriff auf die notwendigen Ressourcen. Für das gute Gefühl hat Google und auch Mircosoft mit Docs bzw. Office 365 einen offline Mode zur Hand. Aber wenn man ehrlich ist, geht das Arbeiten nicht wirklich gut von der Hand, wenn man keinen Zugriff auf die Ressourcen im Internet hat.
All diejenigen, die im Zeitalter der Mainframes, MicroVAX’e, AS/400’s & Co. groß geworden sind oder in der Phase Kontakt zu diesen Systemen hatten, als diese gerade durch den Einzug des PC abgelöst wurden, sehen kein gänzlich neues Konzept in der Cloud. Alle Ressourcen wie Rechenleistung und Speicher werden durch das Rechenzentrum über das Netzwerk dem Anwender zur Verfügung gestellt. Die Cloud ist so gesehen mit ihren Ressourcen von Compute und Storage nur ein sehr sehr großes und weltweit verteiltes Rechenzentrum und das lokale Netzwerk wird in diesem Fall durch das Internet ergänzt und dies macht das alte neue Rechenzentrum überall verfügbar. Auf diese Basis heruntergebrochen ist also die Cloud nichts Anderes als vom Client losgelöste Ressourcen, auf die der Client über ein Netzwerk zugreift und der Client nur zur Anzeige dieser Daten und nicht zu deren Verarbeitung dient. Blickt man zurück, so war der damalige Ansatz die Ressourcen im Rechenzentrum vorzuhalten im Grundsatz richtig. Die technologischen Rahmenbedingungen waren es zu dieser Zeit einfach nicht. Es fehlte an Rechenleistung, Bandbreite, den passenden Technologien wie HTML 5 und auch das Internet gab es so nicht. Mit dem Siegeszug der x86-Architektur und Microsoft gab es zwar Server mit aus heutiger Sicht eher mageren Diensten, aber Microsoft hat es geschafft die PC zu vollwertigen Clients auszubauen die alle Anwendungen lokal vorhielten. Nach dem das geschafft war und die Komplexität kaum noch zu bewältigen, ging der Weg mit Terminal Server und Anbietern wie Citrix wieder zurück in’s Rechenzentrum. Nach dieser von Weiten betrachteten Wellenbewegung vom Rechenzentrum zum Client, wieder ins Rechenzentrum zurück und nun in die Cloud, sind wir nun an diesen Punkt, wo es aus der Cloud, egal ob private, public oder hybrid keinen sinnvollen Weg zurück mehr gibt. Denn das was heute eine private Cloud leistet, kann nicht mehr mit lokal installierten Anwendungen bereitgestellt werden.
Um aber noch mal auf die Applikationskultur zurück zu kommen, muss sich diese dahingehend ändern bzw. sich anpassen, dass die Anwendungen fit für das Rechenzentrum und somit die Cloud werden, wenn es die Anwendungen nicht schon sind. Nimmt man das Beispiel Office und eMail machen es Google und Microsoft vor, wie die Cloud Variante der lokal installierten Klassiker aussieht. Ob Google Mail mit Google Docs oder Microsofts Office 365, beide zeigen wie es geht. Die Anwendungen stehen den installierten Versionen kaum nach oder sind ihnen gar schon einen Schritt voraus. Salesforce ist ebenfalls ein Beispiel welches hier zu nennen ist. Hier hat es nie eine lokale Version gegeben, alles ist und war seit je her in der Cloud zu Hause. Auch Oracle geht den Weg in die Cloud, nicht nur mit dem Service Datenbank und BigData, sondern hat auch einen Anbieter gekauft, der ebenfalls CRM und ERP Cloudsysteme anbietet. Dazu kommen dann noch all die webbasierenden Anwendungen zum Austausch von Daten und zur Kollaboration an sich. Die Zukunft ist der Browser und HTML5 sowie auch die Apps auf den mobilen Geräten. Aktuell hinkt SAP mit ihrer WebGUI noch deutlich hinter der installieren Version der SAP GUI hinterher. Aber das auch hier die Weichen in Richtung Cloud gestellt sind, zeigt mehr als nur deutlich die Kooperation von SAP und Apple oder die von Apple und IBM. SAP als auch IBM haben den Fokus auf das mobile Arbeiten gelegt. Sicherlich vollzieht sich der Wandel nicht von heute auf morgen oder in 2017, trotzdem ist dieser Wandel da und es ist nur vergebene Mühe sich dem langfritstig widersetzen zu wollen. Es wird auch an Alternativen mangeln, die sich lokal installieren lassen. Lieber sollte man seine Ressourcen darauf verwenden, diesen Weg aktiv mitzugestalten und den für sich besten Weg zu finden und bestenfalls diesen Weg selbst zu erarbeiten und somit zu gestalten. Diesen Weg zu sehen und auch seine Vorteile zu erkennen und zu erarbeiten werden unabhängig von der Umsetzung die Aufgaben in 2017 sein.
Es funktioniert besser als gedacht!
All diejenigen, die es sich nicht vorstellen können, sollten es einmal ausprobieren. Noch vor ein paar Jahren sind die meisten Blog Artikel in einer lokalen Textverarbeitung entstanden. Man muss auch zugeben, dass damals der WordPress Editor nicht wirklich gut war, auch die aktuelle Version von WordPress hat noch Defizite. Nach dem ein Artikel fertig gestellt war, wurde er per Copy&Paste in’s WordPress übernommen und veröffentlicht. Der Nachteil war, man konnte nur am Artikel arbeiten, wenn man sein Notebook bei sich hatte. In den letzten Jahren aber entstehen die Artikel alle samt unter Google Docs, denn diese online Textverarbeitung, war und ist wesentlich besser als der WordPress Editor. Es hätte auch statt Google Docs das Office 365 von Microsoft sein können, beide sind hier austauschbar, weil die Funktionen mehr oder weniger identisch sind. Es bieten sich die Blog Artikel auch geradezu an, denn diese werden sowieso veröffentlicht und enthalten nun wirklich keine sensiblen Daten die entsprechend geschützt werden müssen. Der andere eher banale Grund ist die einfache Zusammenarbeit mit anderen. Sei es korrekturlesen oder Verbesserungsvorschläge, damit die Artikel leichter lesbar sind. Als Techniker neigt man ja oft dazu viele Begriffe und Abkürzungen vorauszusetzen und dies macht damit einen Artikel für einen nicht Techniker schwierig zu verstehen. Hier gibt man das Dokument einfach frei, man braucht nicht darauf zu achten, dass es im “richtigen” Format ist, es funktioniert einfach. Als Gimmick hat man obendrein noch eine Versionierung, eine Änderungshistorie oder eine automatische Speicherung. Die Bearbeitung ist völlig unabhängig vom Endgerät und dem Betriebssystem. Wie schon gesagt, es geht hier nur um Blog Artikel, weder um investigativen Journalismus, noch um personenbezogene Daten oder gar geheime Informationen – nur um einen Blog-Artikel.
Was es aber zeigt, ist wie gut es funktioniert. Vor allem zeigt es auch, woran es bei den herkömmlichen Anwendungen im beruflichen Alltag fehlt, einfache Kollaboration und der Austausch mit anderen ohne, dass man Mails mit Anhängen jenseits der 50 MB versendet. Vor allem fehlt eine Alternative zur Dateiablage, denn der klassische Share ist in sehr vielen Fällen einfach nicht mehr zeitgemäß. In einem großen Share das zu finden was man sucht, ist eine seht nervige Angelegenheit. Man investiert Zeit in eine Sache, die sich viel einfacher lösen lies. Kleiner Exkurs: Das SMB Protokoll ist aus dem Jahre 1983 und CIFS gibt es seit 1996, grundlegende Änderungen gibt es hier in Sachen Verzeichnisse und Dateien keine. Was sich dagegen aber geändert hat, sind die Anzahl und das Volumen von Dateien, Verzeichnissen und Shares.
Wenn sie sich jetzt fragen, warum ein IT Dienstleister und Systemhaus welches Infrastrukturen und Rechenzentren aufbaut, Pro Cloud ist, so ist die Antwort einfach. Wenn sich die Rahmenbedingungen ändern, kämpft man nicht gegen sie an und hält an den alten Zöpfen fest so lange es geht, sondern im Gegenteil, man gestaltet mit Kunden und Partnern die private und hybrid Cloud mit. Dies gilt auch für die IT Abteilungen in den Unternehmen selbst, diese werden ja nicht wegen der Cloud obsolet. Eher im Gegenteil, wer, wenn nicht die IT selbst ist hier gefordert aktiv zu werden. Nach wie vor sind Fachwissen und Erfahrung von großer Bedeutung, unabhängig wo die Ressourcen zum Betrieb der Anwendungen herkommen. Auch braucht es immer Administration und auch lokale Infrastruktur, diese ist dann nur an die neuen Rahmenbedingungen angepasst. Zudem wird dieser Wandel sich eher langfristig etablieren. Bis dahin braucht es die IT in der aktuellen Form, jedoch mit dem Blick in die Zukunft und der dafür passenden Strategie. Es müssen sich auch mehr Dinge ändern, wie zum Beispiel die Bandbreiten der Internetanbindungen oder auch wie aufgezeigt, die Applikationen selbst. Aber jetzt ist die Gelegenheit da, den Weg dorthin aktiv mitzugestalten und genau darum geht es. Schon jetzt das Richtige für die IT von Morgen zu tun.
Natürlich darf bei all der visionären Sicht auf die IT der Zukunft der direkte Blick auf 2017 nicht fehlen. Auch im neuen Jahr wird es wieder Themen geben, die das Jahr prägen werden. Die Gefahren die von den Botnetzen und den anderen Cyber Angriffen ausgehen, werden weiter zunehmen. Die 1 Terabit Grenze für (D)DoS Angriffe ist gefallen und diese Art der Angriffe werden in 2017 noch weiter zunehmen. Dies gilt auch für (D)DoS Angriffe ab Layer 4 aufwärts, wie zum Beispiel die Nurse Attack. Alle Themen die uns Ende 2016 begleitet haben, verschwinden ja nicht, nur weil sich die Jahreszahl ändert. Ganz weit oben auf den ToDo’s in 2017 steht die IT Sicherheit. Wenn die Angriffe aus dem vergangenen Jahr etwas gezeigt haben, dass es hier noch viel Potential nach oben gibt. Die IT Infrastrukturen sind anfälliger als viele gedacht haben. Der sichere Betrieb, auch der von kritischen Systemen und Umgebungen, wird eines der Kernthemen in 2017 werden.
Allen ein frohes neues Jahr!