Das neue Jahr ist da und es darf der Ausblick in die Glaskugel für das Kommende natürlich nicht fehlen. Ohne jetzt den Anspruch zu erheben, dass unsere Glaskugel tatsächlich funktioniert, möchten wir es trotzdem wagen das Gesehene kund zu tun. Aber Spass beiseite, es gibt immer wieder Entwicklungen die größere Änderungen in der IT mit sich führen. Daher wie jedes Jahr der Versuch das Neue passend einzuordnen und den Focus auf die wichtigen oder interessanten Themen zu lenken.
Es gibt zwei sehr spannende Themen in Bezug auf VMware und die kommende Entwicklung in Sachen Netzwerk und Storage. Nach dem die Server-Virtualisierung ein alter Hut ist, VDI Umgebungen sich immer mehr etablieren, kommen nun die beiden nächsten Kernbereiche im RZ dran um diese in die virtuelle Welt zu überführen. Dazu passend gibt es „Bewegung“ im Storage Markt. Zu den üblichen Verdächtigen kommen neue Hersteller, die neue Ansätze bieten und sich somit von dem traditionellen Storage lösen. Aber eins nach dem anderen.
Im Bereich der Netzwerk-Virtualisierung setzt VMware auf ihr NSX Produkt. Die Idee die hinter NSX steckt ist gut aber leider, wie auch bei VXLAN von Cisco, ist diese nicht ganz bis zu Ende gedacht. Was bei beiden fehlt sind vernünftige Schnittstellen zwischen virtueller und der immer noch zwingenden physikalischen Welt. Denn irgendwann müssen die Daten ja mal über die Physik zu den Zielen. Auf den ESX’en mag es passen aber an den Details hapert es noch ein wenig. Dazu kommt die andere MTU-Size des Inter-NSX Traffics, diese ist 1600, statt der üblichen 1500. Hier muss das physikalische Netz bzw. die aktiven Komponenten damit umgehen können. Interessant ist NSX auf jeden Fall, da viel an Netzwerkfunktionen auf den Hypervisor übergehen und sich (zumindest) in der VMware Welt nahtlos einfügen. Mit NSX ist es wieder einen Schritt weiter auf dem Weg zum echten SDDC. Zudem hier auch Dritthersteller wie zum Beispiel Juniper, Brocade oder Fortinet entsprechende virtuelle Router wie vMX, Firelfy oder Vyatta und Firewalls anbieten. Im Bereich Netzwerk in Verbindung mit virtuellen Rechenzentren wird sich einiges tun und die Entwicklung mit großen Schritten voranschreiten. Mit dem Software Driven Network eröffnen sich ganz neu Optionen und die Grenzen des Möglichen werden wieder etwas weiter geschoben.
Nicht weniger spannend ist das Thema Storage. Früher gab es hier nur die üblichen Verdächtigen, aber mittlerweile ist es fast unüberschaubar wie viele Hersteller sich hier tummeln und dann kommt VMware noch mit VVOL’s daher. Zudem ist der Markt im Wandel, denn die Marktanteile von nicht mechanischen Speicher steigt und daran versuchen die Storage-Hersteller entsprechend zu partizipieren. Jeder der traditionellen Storage-Hersteller hat sein Angebot an Platten Arrays um SSD’s oder anderen Flash-Speicher erweitert. Aber im Kern halten herkömmliche Storages immer noch am Basis-Prinzip wie vor 20 Jahren fest. Neu sind dagegen Hersteller die Hybrid-Systeme anbieten und Hersteller die nur noch auf Flash setzen. Das ganze wird abgerundet von Herstellern die Storage-Cache im ESX Host favorisieren und den Herstellern die virtuelle SAN’s als Lösung anbieten. Es ist eine Vielzahl an Herstellern mit teilweise gänzlich unterschiedlichen Ansätzen die es den IT Abteilungen nicht gerade leicht machen die richtige Wahl zu treffen. Vor allem auf dem Hintergrund, dass ja noch keiner weiß wohin die Reise tatsächlich geht?
Hier spielen ja auch externe Faktoren, wie zum Beispiel die Preisentwicklung bei SSD und Flash eine große Rolle und welcher Festplattenhersteller am Ende wirklich übrig bleibt. Denn hier werden es ja auch immer weniger. Unabhängig von den Problemen der richtigen Wahl vor dem man steht, ist deshalb die Entwicklung in Sachen Technologie nicht weniger interessant. Gerade die Technologie der Nur-Flash Hersteller. Diese gehen weg von herkömmlichen RAID-Techniken und nutzen Deduplikation und Kompression, sowie neue Dateisysteme die speziell für Flash Speicher entwickelt worden sind. Genügend offene Fragen gibt es trotzdem. Eine der wichtigsten ist der Betrieb eines echten Active/Active Mirrors wie man diesen zum Beispiel mit Datacore als Storage Hypervisor zur Verfügung stellen kann. Echtes Mirroring und Cache direkt im ESX schließen sich faktisch aus, denn solange die Daten nicht auf den gespiegelten Systemen liegen sind diese nicht hochverfügbar. Das herkömmliche RAID-Systeme bei den aktuellen Größen von Festplatten keine wirklichen Option mehr ist, wissen die Storage-Hersteller schon lange. Ein ansynchronisieren einer Platte die ersetzt wurde dauert mehrere Tage und hat sehr negative Folgen für die Performance des Array. Zumal je nach RAID in der Zeit bloß keine zweite Platte ausfallen darf. Hersteller wie Quantum sagen, dass es bald kein RAID mehr geben wird. Egal wie man sich dreht und wendet, im Bereich der noch RAID Storages und der neuen Technologien müssen einige Fragen noch final beantwortet werden. Es bleibt also sehr spannend wie sich der Storage Markt in Zukunft entwickelt. Eines zeichnet sich aber jetzt schon deutlich ab. Die Tage der Festplatte mit drehenden Scheiben wie wir sie seit Jahren kennen sind gezählt und dem „Flash“ Speicher gehört die Zukunft, in welcher Technologie ihn es dann auch immer geben wird. Dies trifft heute ja schon auf die mobilen Geräte, Arbeitsplatz Rechner und auf Thilnclients ja sowieso zu. Wir sehen gespannt der Entwicklung im Storage-Markt entgegen. Wie unsere Kunden können wir in Ruhe verfolgen wo denn die Reise hingeht. Denn durch den Einsatz von Datacore als Storage-Hypervisor ist das Storage schon heute Software-Driven und daher auch morgen immer noch aktuell.
Das Thema Security darf bei einem solchen Ausblick natürlich nicht fehlen. Hier zählt der Schutz vor (D)DoS und Hacker Angriffen sowie der Schutz vor APT zu den großen Herausforderungen in der kommenden Zeit. Denn es werden immer mehr sicher Angriffe kommen und davon sind nicht nur die „Großen“ sondern auch im speziellen der Mittelstand massiv betroffen. Kaum ein Unternehmen welches nicht Dienste wie zum Beispiel Outlook Web App (OWA), Citrix oder immer öfter Web Access für Remote Desktop oder App nutzen. Dann kommen noch Zugriffe per https auf Portal-Systeme oder Extra- bzw. Intranet hinzu. Auf der anderen Seite nehmen Attacken wie Cross-Site-Scripting, Code-Injections usw. immer weiter zu. Pauschal kann man sagen, dass extern angebotene Dienste ständig unter „Beschuss“ stehen. Auf Anwender-Seite werden die Angriffe auch immer zielgerichteter. Das jüngste Beispiel sind mal wieder fingierte Rechnungen im Bereich Telekommunikation die sogar über persönliche Anrede und im fehlerfreien Deutsch aufwarten. Diese werden von echten Accounts bekannter Provider zugestellt und machen es den Filtersystem fast unmöglich diese als Angriff zu erkennen. Die aktuellen und vor allem die kommenden (D)DoS und Hacking Angriffe hingegen können von Firewall-Systemen nicht mehr effektiv verhindert werden. Gerade zum Schutz der angebotenen Dienste ist es wichtig hier das Sicherheitsniveau zu erhöhen und sich den neuen Rahmenbedingungen anzupassen. Die Angreifer haben schon lange hochgerüstet, die Anbieter der Dienste müssen nun nachlegen.
Das Thema SSL/TLS wird uns auch im neuen Jahr nicht loslassen, unabhängig von den Bugs. Immer mehr Webseiten setzen statt http auf https und dieses hat massive Auswirkungen auf die Kontrolle am Perimeter. Das Argument, dass nicht jeder Inhalt verschlüsselt werden muss, gilt insofern nicht mehr, da man sein Augenmerk nicht nur auf zum Beispiel eh öffentlichen Inhalt richten darf, sondern vielmehr mit https sicherstellen kann, dass der Inhalt auch von der korrekten Quelle stammt oder bei der Übertragung verändert wurde. In beiden Fällen ist https hier im Vorteil. Wenn Google wie angedacht in Zukunft Webseiten mit https im gegenüber Webseiten ohne https besser bewerten möchte, dann dürfte es sehr schnell gehen bis die verschlüsselte Übertragung von den meisten genutzt wird. Die Auswirkungen für den Schutz am Perimeter sind nicht gerade trivial. Hier kommt noch viel Arbeit auf die Administratoren zu, die ihr Netz sinnvoll schützen wollen.
2015 wird auch das Jahr werden, in dem sich die IT Abteilungen mit IPv6 beschäftigen müssen. Immer mehr Systeme in Netz sprechen IPv6 ohne das es von den Administratoren wahrgenommen wird. Ist IPv6 aktiv, dann sprechen dies die Systeme untereinander und sehen sich. Sind jetzt noch Zero-Conf Service aktiv, dann können Dienste per IPv6 kommunizieren. Daher gehört IPv6 zu den Themen die zumindest den Weg in das Wissen der Administratoren finden müssen, um hier zu verstehen, was wirklich in ihren Netzen abläuft. Wer immer noch glaubt, dass IPv6 weit weg ist, hat die Zeichen der Zeit nicht erkannt. Es ist still und leise in die Netzwerk eingezogen. Wer in den letzten Monaten einen Company Connect Anschluss von der Telekom bekommen hat, der ist automatisch in den Genuss eines /48 IPv6 Netz gekommen, dann das liefert die Telekom per default mit aus. IPv6 ist da und schon lange im Netzwerk aktiv. Nur weil es im verborgenen liegt und man noch keine Zeit hatte sich damit zu beschäftigen ist es trotzdem da. Hier ist also in 2015 Handlungsbedarf – zumindest in Sachen KnowHow.
Wie schon die ganze Jahre bleibt es in der IT immer wieder spannend und Langweile kommt erst gar nicht auf. In diesem Sinne: Ein frohes neues Jahr!