Ausblick auf 2016

Mit dem neuen Jahr kommen auch Neues auf die IT zu. Ein Ausblick auf das was kommen kann, darf da wie immer zum Start des neuen Jahres nicht fehlen. Dann wollen wir ihn mal wagen, den Ausblick auf die IT in 2016.

Produkte aus dem Bereich der Virtualisierung, genauer die Hypervisor, haben gefühlt ihre aktuelle Sättigung erreicht. Es kommen die neuen Version, hier und da ein paar kleinere Feature aber im Großen und Ganzen ist die Basis so gut wie unverändert. Nichts desto trotz hat diese Technologie die komplette IT Welt umgekrempelt und ist aus ihr auch nicht mehr wegzudenken. Der neue Trend der sich abzeichnet ist wie ihn Nutanix nennt: “invisible infrastructure”, aber anders als Nutanix dies vielleicht sieht. Die Technologie des Rechenzentrums soll in den Hintergrund treten und “egal” werden. Die eigentliche Idee dahinter ist weg von VM’s, die die ehemalige Kombination aus Hardware und OS darstellen und hin zu den Container, die ihrerseits nur die Applikation an sich bereitstellen, der Markt tendiert in Richtung MicroServices. Alle auf dem Markt wollen hier natürlich ein Stück vom Kuchen ab haben. Ob Microsoft mit dem Nanoserver 2016, VMware’s Photon OS oder CoreOS aus dem Bereich Linux. Bei Linux tut sich aber noch mehr, hier konkurrieren gleich mehrere Container-Systeme um die Vorherrschaft, wenn man es denn so nennen will. Da man nicht genau weiß, wo denn der Weg schlussendlich hinführen wird, hat dies natürlich auch Auswirkungen auf den Bereich der Infrastruktur selbst. Davon eher unbeeindruckt ist der Bereich Netzwerk mit allem was dazugehört. Das ist die Basis der Kommunikation und das fast unabhängig was drum herum passiert, denn diese Basis braucht es immer. Daher ist das Netzwerk so ein wenig die Konstante in der IT und dies trotz SDDC, SDN oder VMware’s NSX. Diese Auswirkungen des Trends sind auf anderer Seite der IT aber sehr genau spürbar. Der Bereich der Storage-Lösungen ist dafür ein gutes Beispiel. Hier gibt es zur Zeit alles, von traditionellen Lösungen, Disks, SSD’s, Flash, 3D RAID-Varianten, JBOD, Object-Storage, Storage-Grids, vSAN, vVOL, Pernixdata und was auch immer. Dazu kommt, dass Microsoft einen Storage Server anbietet, wie aber auch Redhat und SuSE. Die OpenSource Lösungen kommen ebenfalls noch dazu. Nimmt man jetzt noch den Bereich der Distributed Filesystems hinzu, wird es abermals komplexer. Der neue Exchange (2016) setzt noch mal eins obendrauf und Microsoft empfiehlt hier “Blech” mit JBOD. In dieses ganze Chaos drängen dann noch die Anbieter der hyperkonvergenten Systemen. Die Idee dieser Systeme an sich ist wirklich klasse, wobei die Idee nicht von den Anbietern selbst stammt. Es werden einfach Ressourcen nachgeschoben, wenn diese benötigt werden und durch ZeroConf stehen diese ohne Aufwand automatisch implementiert zur Verfügung.

Aktuell funktioniert dieses Konzept aber nur im ganz Großen bei massiven ScaleOut Design’s, die Rechenzentren von Google oder Facebook funktionieren zum Beispiel genau so. Daher kann dies nicht eins zu eins auf europäische oder deutsche Unternehmengrößen adaptiert werden. Das wird so nicht funktionieren. Der Aufbau der Rechenzentren wird sich in den nächsten vier oder sogar fünf Jahren nicht wesentlich verändern. Ein massiven Durchbruch der hyperkonvergenten Systeme wird es in 2016 nicht geben. Die Kosten dieser Systeme sind noch viel zu hoch gegenüber ihrem Nutzen. Analog gilt dies für den Bereich des Storages. All-Flash ist ebenfalls ein spannendes Thema. Die Ideen des Herstellers PureStorage sind gut und bieten interessante Ansätze. Der Ansatz von SolidFire der auf einem ScaleOut Design basiert, ist ebenfalls nicht uninteressant. Aber es gibt bei keinen Anbieter weder Langzeiterfahrungen noch wirklich große produktive Installationen. Daher bleibt es vorerst bei den Ideen und Visionen. Zudem ist die Einstiegshürde mit dem kleinsten System von Pure ab 100k USD nicht gerade niedrig. Das gilt aber auch für die hyperkonvergenten Systeme. Hier kann keiner der Hersteller große Installationen im Produktivbetrieb vorweisen. Die Position des IT-Kunden in 2016 ist in einer komfortablen Lage. Man steht an der Schwelle der kommenden Infrastrukturgeneration, kann nach wie vor auf eine solide und bewährte Basis aktueller Systeme zurückgreifen und diese problemlos nutzen, sich aber auch zurück lehnen und schauen wohin die Reise geht. Hyperkonvergente Systeme werden zwar langfristig einen größeren Platz im Markt einnehmen aber aktuell sind diese noch nicht für die große Masse. Man darf gespannt sein, wie viele Marktanteile sich die Container basierten Systeme einverleiben. Denn gerade diese Technik surft auf der Hype-Welle ganz weit oben. Ein Blick auf CoreOS und deren Ideen lohnen sich, selbst wenn man sich nur mal mit dem Thema Container beschäftigen möchte.

Dafür wird sich bei den Applikationen einiges tun. In 2016 wird es weiter gehen mit dem Trend, dass lokal installierte Applikationen auf dem Rückgang sind. Es gibt immer mehr Cloud-Versionen und Microsoft ist in diesem Segment sehr agil. Die Kosten der Office Lizenzen einer lokalen Installation ohne O365 sind mit dem jüngsten Release deutlich nach oben korrigiert geworden. Der neue Exchange 2016 hat keinen OWA mehr, sondern die Webapplikation “Outlook for Web”, die schon sehr nahe an der lokal installierten Version von Outlook dran ist. Zu “Outlook for Web” gibt es auch ein neues Lizenzmodell für Clients ohne lokales Outlook. Es ist natürlich günstiger wie das herkömmliche im Office Paket enthaltene Outlook. Hier forciert Microsoft indirekt ihr Office365 und will das lokal installierte Office langfristig los werden. Interessant dabei ist, dass die Office Anwendung an sich die Cashcow von Microsoft ist und die Betriebssysteme querfinanziert hat. Aber hier wird wohl das Abo-Modell und die eigene Cloud locken und einmal in der “Cloud-Falle”, kommen die Unternehmen da nicht mehr raus. Wirklich neu ist dies jedoch nicht, nur eben für das lokale Office, was wir alle seit Jahren gewohnt sind. Hier muss man nur mal einen Blick hin zu Adobe werfen, die ja schon länger an dem Abo/Cloud-Modell arbeiten. Unternehmenslösungen wie SAP, Oracle oder auch Salesforce gehen ebenfalls diesen Weg. Wie viele betrieben denn “ihr” SAP noch selbst in ihren eigenen Rechenzentren? Oft ist das SAP doch nur noch gemietet, statt auf eigenen Servern betrieben. In Deutschland kann man das Datev-Rechenzentrum ebenfalls zu den Cloudlösungen mit hinzuzählen. Salesforce ist gänzlich und schon seit je her eine Cloudlösung, die von gar nicht mal so wenigen Unternehmen genutzt wird. Dazu kommt Amazon mit ihren Cloudservices, die einfach gemietet werden können. Von dem Geschäft will Microsoft natürlich auch was von haben. In diesem Jahr wird sich also der Weg hin zur Anwendung im Browser oder einer App fortsetzen, was den großen “Vorteil” hat, die Anwendung kann in der Cloud laufen. Google darf da natürlich auch nicht fehlen und bietet GCP (Google Cloud Plattform) an. Abseits von den großen kommerziellen Anbietern gehen viele mittelständische Unternehmen den Weg hin zum eigenen Intranet auf Basis von freier Software oder kleineren Anbietern. Die Unternehmen behalten so die Kontrolle der eigenen Daten und Applikationen bzw. sie wissen wo diese liegen. Aber das ändert nichts daran, dass die Bereitstellung von Applikationen per Web und https sich in 2016 vortsetzen und sich teilweise diese dynamik noch verstärken wird.

Das Thema Verschlüsselung wird die IT in 2016 vielleicht mehr beschäftigen als vielen lieb ist. Im Q1 werden Tatsachen geschaffen und zwingend bei vielen Anwendungen die Verschlüsselung per TLS vorrausgesetzt. Betroffen sind alle die, die sich bis jetzt versucht haben der neuen Verschlüsselung zu widersetzen. Aber es wird kein SHA-1 oder älter mehr unterstützt. SSLv2, SSLv3, MD5, 3DES, RC4 usw. alles obsolet. Viele VPN Verbindungen müssen angepasst werden, ggf. sind VPN Gateways zu ersetzen. Hier werden einige von den Sünden der Vergangenheit eingeholt. Daher ist zu vermuten, dass auch die eine oder andere Webapplikation oder Webseite ihre Probleme mit alter Verschlüsselung und neuen Browsern bekommen wird. Das gilt Insbesondere für viele der alten Router und Embedded Systeme mit veralteter Firmware. Sind die alten Techniken nicht wie jetzt noch nur deaktiviert, sondern in Zukunft aus dem Quellcode verschwunden, gib es kein zurück mehr und der Anwender ist vom Gerät ausgesperrt.

Die Prognose ob sich HTTP/2.0 in 2016 großflächig durchsetzen wird, fällt eher weniger gut aus. Es wird wohl noch eine Weile dauern, bis das neue Protokoll sich auch bei großen Sites und in der Masse etabliert. Hier sind es nicht die mangelden Vorteile von HTTP/2.0, die dies verhindern, sondern es liegt am Verbindungsdesign der Seiten. Denn dies muss sich verändern um den maximalen Vorteil aus HTTP/2.0 zu ziehen. Einer der größten Vorteile des neuen Protokolls ist, die Kommunikation zwischen Client und Webserver nur über eine TCP-Verbindung abzuwicklen. Das bedeutet keine unnötigen weiteren TCP Handshakes, eine TLS Verbindung usw., daher sind viele TCP Verbindungen zu vielen Quellen einer Webseite suboptimal und widersprechen dem Konzept von HTTP/2.0. Aus diesen Gründen muss das Verbindungsdesign einer Webseite dahingehend angepasst werden, damit HTTP/2.0 sein volles Potential entfalten kann. Das ist dann auch der Grund, warum es sich nicht so schnell ausbreiteten wird. Für den Anwender hinegegen ist es völlig transparent. Moderne Browser unterstützen HTTP/2.0 und nutzen es, wenn der Webserver es anbietet. Aber das passiert völlig unbemerkt im Hintergrund und nicht sichtbar für den Anwender, nur die Seite ist schneller geladen.

Im kommenden Jahr wird IPv6 für viele Unternehmen weit oben auf den Todo-Listen stehen. Dazu tragen die immer häufiger anzutreffenden DS-lite Anschlüsse und “echte” Dualstack Anschlüsse der Provider bei. Die Vorteile von IPv6 werden langsam aber sicher sichtbar und somit auch der Nutzen für die Unternehmen. Auf der anderen Seite kommen die Nachteile zum Vorschein, wenn IPv6 nicht zumindest für die externen Services zur Verfügung steht. Wichtig ist bei der Einführung von IPv6, selbst wenn dies “nur” auf der WAN Seite stattfinden soll, eine gute und sorgfältige Planung. Schnellschüsse und “mal eben” lässt sich IPv6 nicht einführen. Dafür unterscheidet sich IPv6 in sehr vielen Dingen grundlegend von IPv4. Weitesgehend ist auch das über die Jahre erworbene IPv4 KnowHow für IPv6 mehr oder weniger nutzlos, weil sich IPv6 anders verhält und auch anders verwendet werden muss. Wer IPv6 binär betrachtet, als nur als viermal so große Adressen ansieht und quasi das IPv4 Layout als Basis nimmt, wird sehr schnell in der Sackgasse stecken und neu anfangen müssen. In diesem Jahr wird es daher noch die eine oder andere Überraschung mit IPv6 geben.

Das Thema Sicherheit darf natürlich bei einem solchen Ausblick nicht fehlen. Durch die zunehmende Hausautomatisierung, dem Internet der Dinge und durch  Industrie 4.0 wird es immer mehr kleine aber vernetzte Geräte geben. Dies wird völlig neue Angriffsvektoren eröffnen und auch Änderungen bei den Sicherheitssystem nach sich ziehen. Die Betreiber müssen sich hier auf die neuen Sicherheitsanforderungen einstellen und sich auch den neuen Gegebenheiten stellen. Auch in diesem Jahr gilt, Sicherheit ist nicht statisch, sondern ein stetiger Prozess. Wer sich hier nicht anpasst, der hat schon den ersten Schwachpunkt geöffnet.

In 2016 wird Industrie 4.0 weiter Einzug in den Mittelstand halten. Für viele Firmen wird dies existentiell werden, sich der Verzahnung von IT und Produktion bzw. Fertigung zu stellen. Für diejenigen, die sich zumindest noch nicht mal mit dem Thema auseinandersetzen, können Wettbewerbsnachteile entstehen. Besonders gegen den unmittelbaren Mitbewerber und auch gegen Konkurrenten aus anderen Regionen bzw. Startup’s die direkt mit der neuen Technologie starten.

Wir freuen uns auf jeden Fall auf ein weiteres spannendes Jahr mit neuen Projekten und Herausforderungen. In der IT wird es uns allen bestimmt nicht langweilig werden. Wir wünschen allen – Ein frohes neues Jahr!