Jetzt ist es so weit und wieder blicken wir auf ein weiters Jahr was vor uns liegt. Leider werden wir alle Probleme des vergangenen mit ins neue Jahr nehmen. Wie immer möchten wir auch in diesem Jahr einen Ausblick mit der Brille der IT und einer frisch polierten Glaskugel wagen, auf das was vor uns liegt. Auch wie immer gilt bei einem solchen Ausblick, es kann so kommen muss aber nicht.
Dieses Jahr steht die IT vor vielen Herausforderungen bei gleichzeitig hohen Kostendruck der nicht nur durch die Energiekosten entsteht, sondern auch durch teure und knappe Komponenten. Dazu kommen ebenfalls noch Engpässe bei den personellen Ressourcen, die auch nicht kurzfristig ausgeglichen werden können. All dies sind keine guten Bedingungen, was die IT und vor allem die IT-Sicherheit betrifft, die durch die aktuelle Gefahrenlage wichtiger denn je ist. Zumal Anbieter von Cyber-Versicherungen öffentlich darüber nachdenken keine Policen mehr anbieten zu können, weil dies nicht mehr finanzierbar ist und auch fordern, dass der Gesetzgeber Lösegeldgeldzahlungen an Cyber-Kriminelle unterbindet. Unabhängig von diesen Themen ist die IT im Wandel und steht an der Schwelle zu einer kleinen Revolution und das nicht zuletzt durch den Wandel in der Arbeitswelt, der durch Corona und den damit einhergehenden Maßnahmen richtig an Fahrt aufgenommen hat. All dies hat deutliche Auswirkungen auf das vor uns liegende Jahr, was durch diesen Ausblick beleuchten werden soll.
2023 steht aus unserer Sicht ganz im Zeichen einer „Cloud First“ Strategie mit der entsprechenden Kombination lokaler Ressourcen und dem behalt der Hoheit über die eigenen Daten. Aber gerade der Cloud First Ansatz hat gleich mehrere Gründe, warum aus der Tendenz der vergangenen Jahre immer mehr die Nutzung von Cloud-Diensten zur wichtigen IT-Strategie an sich geworden ist. Vor allem wird die Strategie von Unternehmen, die den ersten Schritt in die Cloud gegangen sind, immer konsequenter verfolgt.
Die Nutzung von Cloud Services macht eine IT-Abteilung nicht überflüssig, ganz im Gegenteil, aber es befreit sie von vielen Aufgaben rund um die Infrastruktur selbst, die viele nicht mehr durch die eigenen Engpässe bei den personellen Ressourcen leisten können und betreiben daher ihre Systeme mit einem eher schlecht bis gar nicht gepflegten Stand. Allein dies reißt schon große Löcher in die IT-Sicherheitsstrategie, weil ungepflegte Systeme eine riesige Angriffsfläche für einen Angreifer bieten. Ein anderer Grund ist die Flexibilität der Cloud, wenn die eigene Ressourcenplanung immer problematischer wird. Ist das eigene Geschäftsmodell einer großen Fluktuation unterworfen, kann ein eigenes Datacenter nicht sinnvoll geplant werden. Selbst wenn ein Unternehmen seinen eigenen Zahlen noch gut planen kann, sind die Märkte oft nur schwierig einzuschätzen, was dann die eigene Planung schnell auf den Kopf stellen kann. Sich hier die Cloud zu Nutze zu machen, ist nur die logische Konsequenz, wenn man flexibel auf neue Rahmenbedingungen reagieren will. Das lokale Datacenter hält „nur“ die Ressourcen vor, die zwingend oder sinnvoller Weise lokal benötigt werden und alles andere wird nach entsprechender Planung gleichzeitig flexibel und zuverlässig mit der passenden Cloud bereitgestellt. Damit dies auch gelingt, ist es wichtig in 2023 die Legacy Applikationen endlich abzulösen und auf moderne (Web)Applikationen zu setzen. Alles steht und fällt mit dem Design der neuen Applikationen, diese müssen so gestaltet werden, dass man sie automatisiert ausrollen kann und diese per Container oder als Cloud Service an sich betrieben werden. Dieser Punkt ist wichtiger als es auf den ersten Blick den Anschein hat. Läuft einen Applikation im Container, so wird es möglich den Hyperscaler beliebig austauschbar zu machen, was die eigene digitale Souveränität stärkt. Daher sind Container eine sehr wichtige Schlüsseltechnologie, die in 2023 vorangetrieben werden muss. Zudem sind Container sehr gut dazu geeignet CI/CD für die Automation in der Infrastruktur umzusetzen. Analog gilt dies auch für die nativen Dienste in der Cloud, diese müssen so gestaltet werden, dass man sie zwischen den Hyperscalern beliebig umziehen könnte. Damit werden die Anbieter austauschbar und es entsteht kein Vendor Lock. Eine Ausnahme, die aber für On Premises Installationen ebenso gilt, sind Microsoft Dienste wie AD, Exchange usw., hier gibt es den Vendor Lock schon seit Jahrzehnten und das ganz ohne die Cloud. Da sich dies aktuell und auf absehbare Zeit nicht ändern lässt, ist es sehr müßig darüber zu diskutieren. Wobei sich jetzt durch die Ablösung von Legacy Applikationen eine große Chance eröffnet, zumindest hier den Vendor Lock zu durchbrechen. Der Weg hin zu den Webapplikationen hat zugleich den Synergieeffekt, dass man langfristig eine Unabhängigkeit beim Client selbst erreicht. Alternative Clients ergeben sich automatisch, wenn die Applikationen problemlos im Browser laufen. Für Applikationen, die sich nicht so einfach ablösen lassen, müssen dringen in 2023 Strategien entwickelt werden, wie diese bereitgestellt werden können, damit sie zum modernen Ansatz passen. Bei dem angestrebten Ansatz reicht es nicht aus, die 90’er Jahre IT-Konzepte zu renovieren und in aufgehübschter Form weiter zu nutzen, sondern diese konsequent abzulösen. Dies am besten so schnell wie möglich, bevor die 90’er Jahre anrufen und ihre Konzepte zurückhaben wollen. Ganz vorne, was abgelöst werden sollte, steht hier das klassische Client VPN mit seiner Netzkopplung. Aus Sicht der IT-Sicherheit ist dies ein absoluter Albtraum der endlich abgelöst werden muss. Gerade bei der Nutzung von Cloud-Diensten ist das klassische VPN vom Client ins Office nicht wirklich zielführen, wenn viele Ressourcen gar nicht mehr mit dem lokalen Datencenter bereitgestellt werden. Eine moderne IT kommt ohne ein klassisches VPN aus um ein ortunabhängiges Arbeiten für die User mit Ausnahme der Administratoren zu ermöglichen. Im administrativen Bereich gibt es Tätigkeiten, die ein VPN erforderlich machen und hier ist nach wie vor der Einsatz eines VPN-Zugangs entsprechend sinnvoll. Alles, was aber ein Standard-Client benötigt, ist ein Internetzugang und ab diesem Moment ist der Endpoint dann vollständig bereit und die Arbeit kann beginnen. Damit dies funktioniert gilt auch beim Client eine Cloud First Strategie zur dessen Verwaltung und Absicherung einzuschlagen. Ein zentrales Management des Endpoints spielt hier eine wesentliche Rolle, nur macht es keinen Sinn dies vom lokalen Datacenter abhängig zu machen. Zum Schutz des Endpoints ist es von existentieller Bedeutung, dass ein Client in der Lage sein muss, sich selbst und ortunabhängig zu schützen. Dieser Schutz muss an die aktuelle und auch zukünftige Gefahrenlage angepasst sein bzw. angepasst werden können. AI zur Unterstützung eines SOC-Teams spielen hier eine wesentliche Rolle diesen Schutz herzustellen. Es ist wichtig auf die Technologie zu setzen, die auch einen echten und nicht nur gefühlten Schutz bietet, wie das AV-Placebo, was ebenfalls in seinen Grundlagen aus den 90’er Jahren stammt. Egal welches AddOn das schon seit Jahren aus der Zeit gefallene AV-Produkt in den letzten Jahren erfahren hat, es biete keinen Schutz mehr. Daher ist es nun an der Zeit auf eine Endpoint Security zu setzen, die dort ansetzt, wo der heutige AV-Schutz schon längst wirkungslos ist. Daher ist aus unserer Sicht der Einsatz einer modernen und vor allem auch wirkungsvollen Endpoint Security ein sehr wichtiges ToDo in 2023, um nicht vor einer kompromittieren IT und den Verlust von sensiblen Daten zu stehen. Wenn staatlich unterstütze Hacker anfangen sich ihre „Arbeit“ zusätzlich von den Opfern monetär vergüten zulassen, ist es mehr als nur an der Zeit beim Endpoint kräftig nachzulegen, um nicht in 2023 Bestandteil einer Heise Meldung oder gar in den allgemeinen Nachrichten zu werden. Vor allem auf dem Hintergrund, dass es „Anpassungen“ bei den Cyber-Versicherungen geben wird. Fasst man das Konzept für den Endpoint zusammen, so muss es das Ziel sein, dass der Endpoint nur noch die Verbindung zum Internet benötigt und er damit vollständig arbeitsfähig ist. Daraus folgt, dass es völlig belanglos ist, ob ein Endpoint im Homeoffice, unterwegs oder auf dem Campus ist. Für den Anwender ist es immer gleich, sein Standorte haben keinen Einfluss auf die Nutzung des Endpoints.
Die Cloud First Strategie hat natürlich auch einen großen Einfluss auf das lokale Datacenter. Trotz der Cloud werden aber immer noch lokale IT-Ressourcen benötigt, was bedeutet, dass es trotzdem immer noch lokale Rechenzentren und Colocations geben wird. Diese werden aber weniger komplex, benötigen nicht mehr so viele Ressourcen und können sogar dezentral als eine Art Grid zwischen den Standorten inklusive der Colocationen aufgespannt sein. Software Defined spielt hier eine wichtige Rolle, da die Hardware Austauschbar wird und viele Funktionen nun per Software abgebildet werden, was sich dann wiederum besser Automatisieren lässt. Es wird bzw. es muss alles einfacher und weniger komplex werden. Die primäre Aufgabe der lokalen Infrastruktur wird die Konnektivität sein, damit ein Endpoint an die notwendigen Ressourcen in der Cloud, dem lokalen Datacenter und der Colocation kommt. Beim Thema Kommunikation führt sowieso kein Weg mehr an der Cloud vorbei, sei es mit Exchange Online, Teams, Slack & Co. Die Anforderungen an eine moderne Kommunikation lässt sich mit lokalen Diensten nicht mehr bereitstellen, daher ist hier „Cloud First“ schon seit Jahren der Standard und ein lokaler Betrieb immer mehr die Ausnahme, wenn dieser überhaupt sinnvoll möglich ist. Dies gilt ganz besonders dann, wenn die Kommunikation und Kollaboration über die Grenzen der Organisation hinweg mit Dritten funktionieren soll. Auch wenn man auf die Systeme Dritter keinen Einfluss hat, ein Browser ist aber auf jeden Fall vorhanden und damit sind wir direkt wieder bei der Webapplikation, welche auch dieses Probleme löst.
Eine „Cloud First“ Strategie darf aber auch nicht vor der Kerninfrastruktur selbst halt machen, denn auch hier gibt es wichtige Ansätze Ordnung ins Chaos zu bringen und mit einem verhältnismäßig kleinen IT-Team große und umfangreiche Strukturen sicher und zuverlässig zu betreiben. Was mit Intune & Co. bei den Endpoints gültig ist, gilt auch für die Basis der Infrastruktur selbst. Ein Cloud-Managed WLAN und Access-LAN wird der Standard sein, vor allem dann, wenn eine Organisation mehrere bzw. entsprechend verteilte Standorte hat. Dann bieten sich Lösungen wie Meraki & Co., die auf ein Management in der Cloud setzen, sich geradezu an. Dies gilt auch für die Perimeter Firewalls von Subsidiaries ohne eigene Datacenter, wenn diese denn durch die eigene IT verwaltet werden. Bei einem geeigneten Security Konzept für die Clients, bei dem ein Client in der Lage ist sich selbst zu schützen, spielt der Schutz am Perimeter nur eine sehr untergeordnete Rolle, da ein Client außerhalb des Campus die eigene Perimeter Firewall ja nicht hat. Daher kommt auf die Firewall oder das Gateway einer Subsidiary eine andere Rolle zu, die weniger mit dem Schutz und mehr mit dem Management der Ressource Internet zu tun hat, um nicht das Marketing Buzzword SD-WAN zu verwenden. Die klassische Rolle eines Security Gateways (Firewall) zum Schutz des Datacenter in Kombinationen mit anderen Mechanismen, die die eigenen Services und Systeme schützen, wird im Gegensatz des Gateways für den Client entsprechend wichtiger. Dies ist aber kein Problem, da die freigewordenen Ressourcen in Teilen hier wieder investiert werden können und somit die IT-Sicherheit weiter erhöht werden kann. Die auf uns zukommenden Aufgaben sind vielfältig und es ist wichtig die Weichen jetzt richtig zu stellen und die eigenen IT auf die vor uns liegende Zukunft auszurichten.
Es bleibt wie immer spannend in der IT und wir freuen uns schon auf die vielen neuen und spannenden Aufgaben, die wir gemeinsam mit den IT-Abteilungen unsere Kunden umsetzen und damit alle voran bringen – die Zukunft der IT liegt vor uns und ein „think different“ und die „Der Browser ist das neuen Betriebssystem“ wird so langsam, wenn auch in Teilen, Realität.
Allen ein frohes neues Jahr!