Cyber Angriffswelle Petya – Wichtige Hinweise

Auf Grund der aktuellen Gefahrenlage möchten wir noch einmal ausdrücklich auf die vom BSI empfohlenen Maßnahmen hinweisen um sich gegen die aktuelle Angriffswelle zu schützen:

Das BSI rät dringend dazu, folgende Schutzmaßnahmen umzusetzen:

  • auf M.E.Doc Software angewiesene Unternehmen sollten Computersysteme, auf denen diese Software installiert ist, in separierten Netzbereichen kapseln, verstärkt überwachen und sowohl diese als auch von dort erreichbare Systeme auf zusätzliche, möglicherweise bereits stattgefundene Kompromittierungen untersuchen
  • Auf infizierten Rechnern sollten alle Passwörter geändert werden
  • infizierte Rechner sollten idealerweise neu aufgesetzt werden
  • Umsetzung einer Netzwerksegmentierung
  • Erstellen und Vorhalten von Daten-Sicherungen (Backups)
  • Überprüfung der Administratorenrechte:
    • Lokale Administratoren sollten sich nicht über das interne Netz einloggen können
    • Lokale Administratoren dürfen auf unterschiedlichen Rechnern nicht das gleiche Passwort haben
    • Idealerweise sollte der lokale Administrator deaktiviert sein
  • Einspielen aktueller Patches für Software und Betriebssysteme, insbesondere des Microsoft-Patches MS17-010
  • Aktualisierung der eingesetzten Antiviren-Programme

Das BSI empfiehlt zudem, im Zweifel externe IT-Fachkräfte zur Analyse und Bereinigung der Infektionen hinzuzuziehen.

 

Nach aktuellen Erkenntnissen des BSI ist der Cyber Angriff Petya oder auch: NotPetya, ExPetr, DiskCoder, wie der Schadcode ebenfalls bezeichnet wird größer angenommen und stellt auch für deutsche Unternehmen eine große Gefahr da. Daher möchten wir noch mal nachdrücklich auf die Maßnahmen hinweisen, die unbedingt umgesetzt werden sollten. Bei Fragen stehen wir wie gewohnt zur Verfügung oder schreiben sie direkt an unser Security Team.

Erfüllt Mail noch die Anforderungen an die Kommunikation von heute?

Zugegeben diese Frage ist nicht einfach zu beantworten. Vor allem auch deshalb nicht, weil es global kein alternatives System gibt, was diesen Platz einnehmen könnte. Innerhalb eines Unternehmens oder eines Teams gibt es sehr wohl deutlich bessere Kommunikationsmöglichkeiten als die mittlerweile 40 Jahre alte Kommunikation mit Mails.

 

Dass die elektronische Mail mit Stand jetzt in der Kommunikation über die Grenzen des Unternehmens hinweg zurzeit alternativlos ist, daran besteht kein Zweifel. Denn es ist nun mal der globale Standard an dem alle teilnehmen bzw. auf den sich alle geeinigt haben. Bei internen Lösungen sieht es, was die Unternehmen angeht völlig anders aus, hier gibt es viele Ansätze aber es hat sich noch keine der Ansätze durchsetzen können. Im privaten Bereich haben aber Messanger wie WhatsApp & Co. oder die Social Network Plattformen längst die Mail (fast) vollständig verdrängt. Für alle die an solchen Plattformen teilnehmen ist Mail schon seit Jahren kein Thema mehr. Jetzt lassen sich natürlich Facebook und die Messanger nicht so einfach auf ein Unternehmen übertragen, es zeigt aber, dass es ohne Mail geht.

In der internen Kommunikation bei Unternehmen und von Teams innerhalb der Unternehmen oder auch von diesen Teams mit Kooperationspartners ist Mail nicht mehr unbedingt „das“ Mittel der Wahl, wenn es um die Zusammenarbeit geht. Hier haben andere Werkzeuge längst die Mail verdrängt, aber nicht vollständig. Dies liegt nicht an den neuen Werkzeugen oder deren möglichen Unzulänglichkeiten die zur Verfügung stehen, sondern es liegt an den Personen. Bevor es die Alternativen gab, war Mail die einzige Option und wenn man wie gewohnt immer zu Mail greift, dann wird der Prozess ein besseres Werkzeug zu benutzen noch etwas Zeit brauchen bevor es in den Köpfen ist, dass es da noch was Anderes gibt. Das “instinktiv” zur Mail gegriffen wird, ist oft keine böse Absicht, es wird einfach nicht dran gedacht das neue Werkzeug zu nutzen. Natürlich gibt es auch immer noch diejenigen die sich den neuen Dingen verweigern und somit auch damit die anderen zwingen auf die Mail zurückgreifen zu müssen. Wer aber einmal die Vorteile der anderen Werkzeuge zu schätzen gelernt hat, der will sie nicht mehr missen.

Wenn man ganz ehrlich ist, dann ist die täglich Flut an Mails nahezu unerträglich. Das Medium Mail wird einfach nur noch inflationär benutzt ohne darüber nachzudenken, wie auch alle möglichen Leute mit in Kopie zu nehmen. Man verbringt die meiste Zeit damit, herauszufinden ob es denn für einen wichtig ist, wo man nur mit in Kopie ist. Wer sich hier wiederfindet ist zumindest nicht alleine. Vor gut zwei Monaten gab es einen sehr interessanten Artikel ist der F.A.S. vom Airbus-Vorstand Dirk Hoke, der sich mit dem Wandel in Unternehmen weg von der Mail beschäftigt. Zum Thema Mail und vor allem zum Thema in CC nehmen gab es ebenfalls einen lesenswerten Artikel auf SPON. In diesem Artikel ging es u.a., dass durch die ständige Nutzung andere mit in CC zu nehmen es in vielen Fällen einfach nur darum geht verantworten von sich wegzuschieben. Denn so ist immer die Tür offen zu sagen, dass man in CC und somit ja schließlich auch informiert war. Natürlich gib es immer wieder Fälle, bei denen es richtig ist in CC oder auch vielleicht im BCC zu stehen. Aber – und das ist der Punkt um den es geht, nicht bei aller und jeder Konversation die geführt wird. Vor allem dann nicht, wenn Mail wie eine Chat Applikation genutzt wird. Mail war und ist einfach nicht dafür gemacht. Hier sollten sich auch noch mal alle darüber klarwerden, was Mail denn eigentlich ist. Mail ist der digitale Ersatz eines physikalischen Briefes, also das aus Papier, in dem Umschlag der mit dem gelben Auto einmal am Tag vorbeigebracht wird. Das ist Mail, so wurde sie vor 40 Jahren konzipiert, mit all ihren Einschränkungen und aber auch Vorteilen. Mail ist aber nun mal keine Echtzeitkommunikation oder gar dafür gedacht organisatorische Aufgaben und die Koordination in dynamischen Teams abzubilden. Denn genau das ist der Grund, warum Mail heute fast nur noch als Belastung und nicht mehr als Entlastung wahrgenommen wird – und zurecht. Auch ist Mail nicht dafür gedacht gemeinsam an Dokumenten zu arbeiten und sich die verschiedenen Versionen immer wieder gegenseitig zuzusenden. Es ist also an der Zeit die Dinge neu zu ordnen, neu zu bewerten und auch neue Wege zu gehen. So wie sich die Nutzung von Mail entwickelt hat, kann es nicht mehr weitergehen. Dies gilt auch auf Seiten der Administration, der Aufwand für den Betrieb der riesigen Datenmengen in den Datenbanken der Mailsysteme ist kaum noch zu bewältigen. Ohne eine Änderung der Kommunikation wird diese Situation zukünftig nur noch schlimmer. Es ist also an der Zeit über Alternativen ernsthaft nachzudenken.

Aber hier stellt sich dann die Frage, welche Anwendung denn das richtige Werkzeug ist, was man als IT Abteilung seinen Anwendern an die Hand geben möchte. Je mehr neue Mitarbeiter in die Unternehmen kommen, die mit den Messangern und den Social Media Plattformen aufgewachsen sind, werden die Rufe nach solchen Lösungen immer lauter und die Mail an sich wird dadurch immer weiter verdrängt. Dass das so ist, zeigt sich in den Bestrebungen wie zum Beispiel von Microsoft oder IBM. Microsoft ist mit seinem Exchange mehr oder weniger als Platzhirsch in Sachen Groupware Lösungen für Unternehmen zu bezeichnen. IBM hat zwar mit Notes auch noch Marktanteile aber im Vergleich zu Microsoft ist das Bild mehr als nur deutlich zugunsten Exchange. IBM hat schon vor gut zwei Jahren angekündigt eine Alternative zu Mail entwickeln zu wollen. Im Backend soll IBM Watson helfen die Konversationen zu ordnen, wichtiges von unwichtigen zu trennen und als Bot einfach Aufgaben von alleine erledigen. Die klassische Mail ist mit integriert, aber nicht das zentrale Element. Soweit also die Vision von IBM. Microsoft sieht es wohl etwas anders und setzt hier eher auf Skype for Business bzw. auf den Zukauf Yammer der jetzt zu Office 365 gehört, um somit die Anforderungen an die zukünftigen Wünsche in Sachen Kommunikation zu erfüllen. Wie man es auch dreht und wendet, Mail hat ihre Berechtigung aber Mail ist eben nicht die Lösung für alles und dies gilt im Besonderen in Sachen interner Unternehmenskommunikation. Es wird hier definitiv Zeit für neue Wege und Lösungen, die es den Mitarbeitern einfach machen miteinander in Kontakt zu bleiben und vor allem die Übersicht zu behalten. Diese neuen Wege und Lösungen machen aber nicht halt bei der Kommunikation, sondern diese gehen auch noch weiter was die Anwendungen betrifft die wir in Zukunft nutzen werden. Applikationen im Browser und Apps auf mobilen Geräten werden die klassischen lokal installierten Anwendungen verdrängen. Der Wandel hat schon begonnen und wird sich in Zukunft noch mehr beschleunigen. Der positive Nebeneffekt dieser Art von Applikationen entlastet die IT Abteilung im hohen Maße in Sachen Softwareverteilung und deren Aktualisierung. Das zentrale Element dieser Applikationen ist der Webserver mit all der Flexibilität die damit einher geht. Die kommenden Anwendungen nutzen Port 443. Bei Google oft UDP mit dem QUIC Protokoll und bei vielen anderen schon HTTP/2.

Zumindest ist es jetzt an der Zeit sich die möglichen Optionen für eine bessere Zusammenarbeit genauer anzusehen und sich auch ernsthaft damit beschäftigen wie man diese im eigenen Unternehmen nutzen und auch einführen kann. Man muss ja nicht gleich mit der eigenen Social Media Plattform starten und komplett in die Cloud wechseln. Es gibt sehr gute on premise Lösungen die man einfach nur nutzen muss um von den Vorzügen profitieren zu können. Bei den Messengern ist es ohne Cloud aber schon sehr schwierig die passende Lösung zu finden. Gerade im Hinblick der vielen mobilen Geräte und der Einfachheit durch die fertigen App Stores.
Im Folgenden ein paar Beispiele die einen Ausblick geben, wohin sich Anwendungen entwickeln derzeit hin entwickeln:

 

Zammad – Ist eine Helpdesk- oder Ticket-Lösung für all diejenigen denen JIRA, Zendesk, OTRS & Co. eine oder mehrere Nummern zu groß ist. Dabei ist Zammad universell einsetzbar, es ist nicht nur ein Tool für die IT, um die Supportanfragen bearbeiten zu können. Es kann auch problemlos im Endkundenkontakt oder für Gruppen-Mailadressen genutzt werden. Zum Beispiel alle Betreiber von online Shops die Kundenanfragen oder Reklamationen im Team bearbeiten müssen, finden in Zammad ein Werkzeug was ihnen dabei effektiv hilft die Anfragen zentrale zu ordnen und zu bearbeiten. Zammad ist übersichtlich, hat eine sehr gute Suchfunktion und läuft vor allem im Browser. Es muss kein Client installiert werden, was es sehr benutzerfreundlich macht. Gerade die Integration von Zammad in Facebook, Twitter, Telegram oder in die eigene Webseite macht es dem Team einfach mit seinen Kunden oder den eigenen Benutzern in Kontakt zu bleiben. Das Team nutzt die Browser App und der Kunde kann von Mail über die Plattformen bis hin zum Web Chat alles nutzen, was er möchte. Zammad kümmert sich darum die Kommunikation mit dem Kunden oder eigenen Anwender für das Team übersichtlich zu kanalisieren und entsprechend zu ordnen. So ist jeder im Team über den jeweiligen Stand informiert. Im Hintergrund unterstützt Zammad das Team, damit zum Beispiel kein Ticket vergessen wird und eine Antwort an den Kunden oder Anwender ausbleibt. Diese Unterstützung kann durch die Überwachung hinterlegter SLA’s erweitert werden.

Confluence – von Atlassian ist nicht nur einfach ein Wiki, sondern es ist „das“ Wiki und eine sehr gute Kollaborationsplattform und Intranet ohne die Komplexität eines SharePoints. Mit seiner AD Anbindung passt es problemlos in die Welt von Microsoft. Durch seinen unzähligen AddOns und PlugIns lässt es sich an fast jede beliebige Aufgabe anpassen. Confluence ist die Plattform wenn es um Kollaboration und Wiki geht, ganz egal für was es auch immer genutzt werden soll.

Slack – Ist Instant Messaging für Teams mit einer strategischen Partnerschaft zur Google Cloud und nur als Cloud Service verfügbar. Es kann als Browser App oder auch als App unter Windows, macOS oder die mobilen Betriebssysteme genutzt werden. Es lassen sich Personen- oder auch Gruppen-Chats führen und auch Dokumente mit Slack austauschen. Es funktioniert ähnlich wie WhatsApp aber eben als Team Kommunikation im Unternehmen. Es gibt über Web Hooks zum Beispiel eine Anbindung an Zammad, damit Updates über Tickets entsprechend auch in Slack angezeigt werden. Slack bietet zur verbesserten Sicherheit auch eine Zweifaktorauthentifizierung an, um den Zugang entsprechend abzusichern.

Yammer – Gehört zu Office 365 und ist eine Art unternehmensinternes Soziales Netzwerk für Zusammenarbeit und Kommunikation. Es ist auch nur als Cloud Version innerhalb von Office 365 verfügbar. Es bietet Funktionen wie Slack aber eben auch wie ein internes „Facebook“. Wer schon Office 365 nutzt oder dessen Nutzung plant und Yammer nutzen möchte, benötigt eine entsprechende Office Lizenzvariante, damit Yammer auch Bestandteil davon ist.
teamup – Ist ein Team- oder Gruppen-Kalender in der Cloud. Zugang gibt es über einen Link auf diesen Kalender. Hier muss jeder für sich entscheiden ob diese ausreichend ist. Auf der anderen Seite einen freien Google Kalender einzubinden ist wahrscheinlich auch nicht besser, was die Sicherheit der Informationen dort angeht. teamup ist hier nur ein Beispiel für einen Teamkalander in der Cloud, aber auch hier zeichnet sich der Weg hin zur Integration mit anderen Cloud Services und eben auch als Browser App ab.

draw.io – Was OmniGraffle auf dem Mac oder Visio auf Windows, ist draw.io im Browser. Eine weitere alternative in diesem Bereich ist gliffy, wobei draw.io auch auf einem eigenen Server oder als Chrome App bereitgestellt werden kann. Gliffy und draw.io gemein, ist deren Integration in Confluence mit entsprechend automatischer Versionierung der Zeichnungen. Einer der großen Vorteile von draw.io ist das einfache weitergeben von Zeichnungen an Mitarbeiter, Partner oder Kunden. Dadurch das draw.io einfach im Browser läuft und trotzdem mit lokalen Dateien umgehen kann, muss man sich keine Gedanken machen, ob den der Empfänger die passende Applikation hat, wenn man zum Beispiel Visio verwendet. In draw.io können Visio Stencils (vssx) einfach importiert werden und stehen so wie gewohnt zur Verfügung. Zudem bringt die online Version sehr viele Stencils mit, die für die meisten völlig ausreichend sein dürften. Microsoft hat die Vorteile der Browser Apps ebenfalls erkannt und stellt seit wenigen Wochen Visio auch als online Version für den Browser im Rahmen Office 365 bereit. Jedoch nicht in jeder Office 365 Lizenz, wer dies nutzen möchte muss hier prüfen, ob er denn die passende Lizenz besitzt.

 

Bei den meisten Team- oder Gruppenanwendungen gibt es vorrangig die Cloud Lösungen. Hier sind nur sehr wenige Lösung vorhanden, die auf den eigenen Servern betrieben werden können. Der Einsatz der Cloud ist bei diesen Anwendungen, wenn man den Gedanken bis zuletzt denkt, die einzig passende Option um mobile Geräte und verteilte Teams mit all den verschiedenen und teils auch parallel genutzten Endgeräten zusammenzubringen. Das Thema Datenschutz ist sehr wichtig und sollte immer mit in die Überlegungen mit einbezogen werden. Was man aber immer bedenken sollte, Mail ist in den allermeisten Fällen nicht Ende-zu-Ende verschlüsselt, dafür aber viele der Messenger. Trotzdem würde ich persönlich über WhatsApp keine vertraulichen Interna kommunizieren. Hier sind Messenger wie Threema oder Signal besser geeignet. Zudem hat man dann auch einen Zweitweg über den man sensible Daten austauschen kann. Wer die normale Mail hier immer noch als sicherer betrachtet, muss sich im Klaren sein, dass Mail so gesehen nur eine Postkarte ist. Es ist zwar richtig, dass mittlerweile der Transportweg mit TLS abgesichert ist, wobei es hier immer noch Mailsysteme gibt, die dies nicht anbieten. Trotzdem kontrolliert doch niemand, bis auf wohl wenige Ausnahmen ob die Gegenstelle denn wirklich derjenige ist, für die sich ausgegeben wird. Ob öffentlich, selfsign oder zu schwach Verschlüsselt wird doch in 99,97% der Verbindungen gar nicht geprüft. Gerade Sätze, wie „Es kann ja wohl in der heutigen Zeit nicht sein, dass meine Mail nicht ankommt“ und im Zweifel, weil alle Anwender es in der kompletten Hierarchie eines Unternehmens es einfach immer erwarten, bleibt eben die Sicherheit auf der Strecke. Zudem alle Mailgateways durch die „TLS Verweigere“ die es immer noch gibt als Fallback auf unverschlüsselte Klartext Kommunikation zurückfallen. Und noch mal, es ist nur der Transportweg, auf den jeweiligen Mailgateways und Mailservern selbst, sind die Mails immer im Klartext vorhanden. In Anbetracht dessen relativiert sich der Einsatz von in der Cloud betriebenen Messenger und Kommunikationsplattformen. Auch auf dem Hintergrund, dass bei Mail eine Ende-zu-Ende Verschlüsselung definitiv gescheitert ist. Nicht zuletzt auch deshalb, dass Verschlüsselung mit benutzerspezifischen Schlüsseln und zentrale Archivierung in letzter Konsequenz nicht zueinander passen.

Dieser Beitrag kann nicht die universelle Antwort liefern, die man sich vielleicht erhofft hat. Dazu ist das Thema viel zu individuell und auch zu komplex. Vor allem steht und fällt eine alternative Lösung mit den eigenen Anwendern und deren Akzeptanz neue Lösungen auch konsequent zu nutzen. Aber was der Beitrag kann ist einen neuen Blickwinkel auf das Thema Kommunikation, Zusammenarbeit und Browser basierende Anwendungen zu liefern. Wie Mark Andreessen (Mitgründer von Netscape) dies schon Visionär vor über 20 Jahren vorhersagte, kommen wir nun langsam zu diesem Punkt, an dem der Browser die ultimative Basis und das eigentliche Betriebssystem austauschbar ist – nicht wird.

Wenn Sie Fragen zu Thema browserbasierende Anwendungen und deren Sicherheit und Absicherung haben, stehen wir wie gewohnt zur Verfügung.

WannaCry im Sog von DoublePulsar

Geplant war es einen anderen Beitrag im Blog online zu stellen, aber die aktuellen Ereignisse zu ignorieren geht natürlich auch nicht. Daher haben wir uns entschlossen das Thema passend zu den aktuellen Ereignissen zu ändern. Der ursprüngliche Beitrag mit dem Thema eMail als Kommunikationsplattform im Unternehmen ist für den nächsten Monat geplant.

Jetzt ist es passiert und zwar mit Ansage! Primär sind natürlich diejenigen schuldig, die den Schadcode entwickelt haben um damit Geld von den Opfern zu erpressen. Genauso Schuld sind aber auch die “Sicherheitsdienste”, die die Lücke verschwiegen haben, Microsoft und sein Patch Management, die Unternehmen, die veraltete oder nicht aktualisierte Systeme einsetzen und zum Schluss der Anwender selbst. Schuld haben an dem aktuellen Zustand der globalen IT Infrastruktur alle. Wichtig ist es jetzt aber aus den Fehlern endlich mal zu lernen, diese objektiv und sachlich zu betrachten und dann vor allem auch Konsequenzen daraus zu ziehen und natürlich entsprechende Maßnahmen ergreifen und diese zeitnah umzusetzen. Aber jetzt erst einmal der Reihe nach:

Die Sicherheitsdienste eines Staates sollen den Staat selbst, die Verfassung und natürlich die eigenen Bürger schützen. Das Verschweigen einer solch gravierenden Sicherheitslücke in dem meistgenutzten Betriebssystem – wobei jetzt auch nachweislich Menschenleben gefährdet wurden – zeigt nur zu deutlich wie sie ihrer Aufgabe „gerecht“ werden. Da stimmen die Prioritäten nicht mehr, man lässt sein eigenes Land völlig ungeschützt, nimmt Schäden der ganzen Infrastruktur des eigenen Landes in Kauf und das nur für den vermeintlich eigenen Vorteil andere Systeme hacken zu können? Vor allem wer sagt denn, dass nicht Dritte auch auf die Lücke hätten kommen können. Was wäre denn dann gewesen? So gesehen stimmt bei den Diensten grundsätzlich gar nichts mehr und dann sollen deren Befugnisse noch immer weiter ausgebaut werden? Die Begründungen der Politik sind beliebig austauschbar, ob Kinderpornographie, organisiertes Verbrechen, Terrorismus, schwerste Straftaten usw. suchen sie sich einfach etwas aus, es passt oberflächlich in jeder Argumentation. Dazu zählt genauso die schwachsinnige Idee Verschlüsselung zu schwächen oder gar mit Hintertüren zu versehen. Wie gut sich die Schlüssel oder Hintertüren unter Verschluss halten lassen, haben die Shadow Brokers der ganzen Welt aufgezeigt. Als würde es die wirklichen Kriminellen, Terroristen oder “feindliche” Sicherheitsdienste anderer Staaten interessieren, dass diese Zugänge nur den jeweiligen Dienst des eigenen Staates vorbehalten sind. Im Gegenteil, die reiben sich die Hände, in Anbetracht solcher Sollbruchstellen. All diejenigen, die diese Hintertüren und Sollbruchstellen fordern, sind einfach nur dumm und blauäugig, wenn sie wirklich glauben, dass andere diese Schwachstellen nicht für sich ausnutzen würden. Die grundlegende Ausrichtung der Sicherheitsdienste und vor allem deren Einstellung sollte hinterfragt und auch angepasst werden. Dies gilt auch für die Politik, IT Sicherheitsgesetze auf den Weg bringen und auf der anderen Seite ganz bewusst die komplette IT Infrastruktur des eigenen Landes so verwundbar dastehen zu lassen. Dabei ist es völlig egal, ob bewusst oder unbewusst, alleine durch die mangelnden Vorgaben oder Überwachung der eigenen Dienste sind hier große Fehler gemacht worden. Daher eine ganz klare Mitschuld von den Diensten und der Politik an dieser Cyber Attacke. Die aktuellen Forderungen aus der Politik sind ebenso unverschämt wie peinlich. Die eigenen Dienste nicht kontrollieren zu können und sich jetzt noch hinzustellen und eine Ausweitung der IT Sicherheitsgesetze und eine Meldepflicht zu fordern. Dies soll wahrscheinlich nur von den eigenen Versäumnissen und dem Unvermögen in der Vergangenheit ablenken.

Kommen wir zu Microsoft, die ebenfalls einen großen Teil der Schuld an dem Ausmaß tragen. Das Patch Management von Microsoft ist gelinde gesagt schlichtweg eine Frechheit, unabhängig von den anderen Bemühungen was die Sicherheit der Systeme angeht. Angefangen damit, wie lange Microsoft braucht Patches zu liefern, ihren albernen Patch Day, der Qualität der Patches und nicht zuletzt das Volumen der Patches selbst. Daran ändert auch nichts, für XP noch einen Patch nachzureichen. Die Folgen dieses Patch Miss-Management von Microsoft sind sehr weitreichend. Alleine die Größe der Patches macht für die IT Abteilung ein zeitnahes Ausrollen sehr schwierig oder oft so gut wie unmöglich. Dann sind da noch die Abhängigkeiten der Anwendungen und die Freigabe der Patches durch deren Hersteller und nicht zuletzt die oft mangelnde Qualität der Patches und die damit verbundenen Folgen. Daher müssen IT Abteilung selbst unter großen Aufwand Tests durchführen, ob denn zum Beispiel noch nach den Patches alles funktioniert und die eigenen Anwender arbeiten können. Oft haben die IT Abteilungen nur die Wahl Not gegen Elend. Installiert man die Patches nicht, ist man angreifbar, installiert man sie doch, funktionieren die Systeme nicht mehr so wie sie sollen und bei Drittanbietersoftware bekommt man im Anschluss daran keinen Support, da der Patch nicht freigegeben war oder ist. Alles in allem hat dadurch Microsoft eine entsprechend große Mitschuld  an dem IST-Zustand des Patch-Managements.

Wer jetzt als Unternehmen, IT Abteilung oder Anwender meint die Schuld bei den Anderen zu sehen, der irrt genauso. Nicht weniger Schuld tragen die in letzte Konsequenz diejenigen, die für den IT Betrieb oder die IT Infrastruktur selbst verantwortlich sind. Auch wenn die Rahmenbedingungen in Sachen Patches sehr viel Potential nach oben haben, entbindet es keines Falls davon hier nicht im ausreichendem Maße tätig zu werden. Ganz vorne steht auch die Frage, warum sind noch so viele XP und Windows 2003 Server Systeme in Betrieb und online, obwohl es hierfür schon sehr lange keine Patches mehr gibt? Wenn es spezielle Systeme sind, die noch zwingend auf XP/2003 aufsetzen, dann müssen diese abgeschottet vom ganzen Rest der IT betrieben werden. Alle dementsprechend angeführten Gründe, warum das nicht der Fall ist, sind in letzte Konsequenz auch nur Ausreden. So lange nichts passiert entstehen auch keine Kosten, nur wenn etwas was passiert und hier ist die Frage nicht ob, sondern wann, dann ist der Schaden immens und mit aller Wahrscheinlichkeit deutlich über den Kosten aktuelle Systeme zu verwenden oder das Netz entsprechend zu segmentieren. Gibt es keine Alternative zu einem XP System oder einem System welches nicht mit Patches versorgt werden kann, wie es zum Beispiel bei Produktionsanlagen der Fall sein kann, so hat dieses Systemen nichts im allgemeinen Netzwerk verloren. Es muss in ein eigenes Segment mit ganz restriktiver oder im Besten Fall völlig unterbundener direkter Kommunikation. Notfalls müssen gehärtete Schnittstellensysteme her. Aber eine direkte Verbindung darf es einfach nicht geben oder wir haben genau dass, was jetzt passiert ist.

Die Monokultur durch Microsoft Systeme hat auch einen Anteil an der ganzen Misere, denn die macht es erst möglich, dass eine Sicherheitslücke so Flächendeckend mit dem aufgezeigten Ausmaß möglich ist und dann auch auftritt. Hier muss ebenfalls ein Umdenken stattfinden und alternative Anwendungen und Systeme müssen immer mit in den Denkprozess aufgenommen werden. Selbst wenn der andere Weg vielleicht auf den ersten Blick weniger einfach erscheint, gerade bei solchen Attacken zeigt es sich, warum der andere Weg, doch der bessere gewesen wäre. Linux und OpenSource ist natürlich nicht das Allheilmittel, aber der andere Ansatz, das andere Patch Management und eben nicht die Monokultur verringern die Angriffsfläche und erhöhen die Komplexität für einen Angriff selbst und das kann dann den Unterschied ausmachen. Im Kielwasser von WannaCry hat sich eine Lücke in Samba offenbart, die erst jetzt entdeckt wurde. Veröffentlich wurde die Lücke am 25.5. um kurz vor 18 Uhr lokaler Zeit. So gut wie alle Distributionen stellten zu diesem Zeitpunkt schon aktualisierte Pakete bereit. Das gleiche gilt für FreeNAS, wo auch entsprechende Updates zur Verfügung stehen. Andere Hersteller von NAS Systemen haben teilweise noch keine Updates bereitgestellt. Die gilt auch für die vielen IoT Systeme und sonstigen Embedded Devices. Dieses Beispiel zeigt aber wie schnell unter Linux Patches bereitgestellt werden können. Vor allem muss man hier nicht auf einen Patch-Day warten. Es zeigt aber auch, dass einige Hersteller gerne OpenSource nutzen, aber selbst kein wirklich gutes Patch-Management haben. Dies sollte bei der Auswahl der Systeme berücksichtigt werden. Die Pflege der Software auf den Systemen ist noch wichtiger als die Systeme selbst. Dann im Fall des Falles ist schnelle Hilfe nur das was wirklich zählt.

 

Die grundsätzlichen Konsequenzen müssen jetzt ein Hinterfragen der eignen IT Sicherheit sein, um endlich die bekannten Lücken zu schließen. Folgende Fragen sollten Sie sich jetzt unbedingt stellen:

  • Sind die Netze ausreichend Segmentiert und entsprechend abgeschottet und wird der Datenaustausch zwischen ihnen kontrolliert?
  • Sind alle vernetzen Systeme ausreichend geschützt und sind vor allem die zur Verfügung stehenden Patches installiert?
  • Ist das eigene Patch-Management so aufgestellt, dass man auch schnell reagieren kann?
  • Bietet die Firewall am Perimeter alle Funktionen nach dem Stand der Technik, um die Kommunikation zum Internet hin entsprechend zu prüfen und zu überwachen?
    Wird ggf. eine zweite Linie benötigt, um schnell mehr Schutz zu erreichen um dann in Ruhe auf eine angepasste Lösung umzustellen?
    Wichtig: Wird C&C und TOR Kommunikation erkannt und unterbunden?
  • Habe ich überhaupt noch den Überblick was gerade alles in meinem Netz passiert oder wird es nicht Zeit für eine SIEM und oder Monitoring Lösung?
  • Wie gut gesichert sind meine FileShares, gibt es hier bessere Ansätze als die klassische Freigabe mit Windows oder NAS Systemen.
  • Funktionieren meine Backups und sind diese vor unbefugten Zugriffen geschützt?
  • Ist der Einsatz einer AV Software noch der richtige Weg oder benötige ich einen anderen Ansatz?
  • eMail ist das größte Einfallstor in das Netzwerk, ist hier der Schutz ausreichend?
  • Basiert mein Patch Management noch auf den richtigen organisatorischen Prozessen?

„DoublePulsar“ und wieder kein Umdenken

Durch eines der geleakten NSA Tools sind 100.000+ Windows Server im Internet kompromittiert worden. Natürlich sind kompromittierte Rechner im Internet nicht wirklich was Neues, trotzdem zeigt es mal wieder die Leichtfertigkeit und auch die Ignoranz vieler Betreiber von Windows Systemen, die aus dem Internet direkt erreichbar sind.
Damit ein System kompromittiert werden kann, muss dieses über die TCP Ports 445 oder 139 zu erreichen sein. Einen Patch gegen die Sicherheitslücke gab es von Microsoft dazu im März mit der Bezeichnung MS17-010. Bei dem Angriff handelt es sich um eine dateilose Infektion, welche für die meisten Virenscanner aus diesem Grund wohl nicht zu entdecken ist. Da der Angriff über das Netzwerk stattfindet können diese auch durch ein IPS unterbunden werden. Entsprechende Snort Rules gibt es bei GitHub. Die Frage ist aber eine ganz andere: Warum sind Systeme mit dem Betriebssystem Microsoft Windows über den Services CIFS überhaupt direkt aus dem Internet zu erreichen? Dafür kann es keine plausible technische Erklärung geben, warum man so etwas tun sollte. Dass dies so ist, daran besteht nun mal kein Zweifel, Sicherheitsforscher haben bereits über 100.000 infizierte Systeme im Internet entdeckt. Die tatsächlichen Ziel dürfte daher noch viel höher sein.
Sicherheitslücken in Betriebssystemen und Anwendungen gab es in der Vergangenheit, gibt es jetzt und wird es auch in Zukunft immer geben. Das ist einfach so und es lässt sich auch nie ganz abstellen, eine uneingeschränkt fehlerfreie Software kann es einfach nicht geben. Aber das was hier passiert, ist etwas ganz völlig anderes. Hier sind Services zu erreichen die rein Garnichts im Internet verloren haben. Der Grund dafür ist, und man muss es leider sagen, die Inkompetenz des Betreibers bzw. des technischen Verantwortlichen für den Server oder Dienst. Auch wenn es einfach ist, den eigenen oder durch ein paar Mausklicks im Bestellportal eines der Anbieter einen Windows Server online zu bringen, muss man trotzdem wissen was man tut. Wobei sich mir immer die grundsätzliche Frage stellt, was hat überhaupt ein Windows Server direkt im Internet verloren? Nur weil es schön bunt und vermeintlich „einfach“ zu bedienen ist. Alleine der Gedanke, dass RDP offen ist und es schon Windows Server im Internet gab, als diese Verbindung noch nicht verschlüsselt wurde, ist völlig abwegig. Bei Telnet haben es zum Glück die meisten verstanden, dass SSH doch die viel bessere Wahl ist, ftp hält sich dagegen immer noch hartnäckig, wobei daran gearbeitet wird es auch endlich verschwinden zu lassen. Die Tage von ftp sind (hoffentlich) bald gezählt. Alleine der RDP Zugriff zeigt aber auch wie blauäugig technisch Verantwortliche hier handeln. Das ist aber jetzt nicht alleine auf das Betriebssystem Microsoft beschränkt. Microsoft bemüht sich merklich in den letzten Jahren die Sicherheit ihrer Systeme zu erhöhen. Bei Linux & Co. ist dieses Blauäugigkeit auch häufiger der Fall als man annimmt. Es sind auch hier ausreichend extern erreichbare Systeme online die aus dem Support sind oder ihre Anwendungen nicht gepflegt werden. Auch bei Linux & Co. immer wieder gerne genommen DB Listener oder Backup Services, die dann zum Einbruch in das System zusätzlich genutzt werden. Ganz vorne dabei sind „Internetagenturen“ die irgendwann mal der Webauftritt online gebracht haben und die Wörter Update und Patchmanagement nicht kennen – Hauptsache es sieht schön aus. So gesehen ist es im Internet ein grundsätzliches Problem. Man hat zwar immer die Hoffnung, dass solche Ereignisse zu einem Umdenken führen, aber das passiert wie eigentlich auch immer dann doch nicht.
Was „DoublePulsar“ mal wieder gezeigt hat ist, wie schnell sich so etwas im Internet ausbreitet obwohl es einen Patch gibt, der nur einfach nicht installiert worden ist. Dies ist auch eines unser aller Grundprobleme, dass technisch Verantwortliche ihren Aufgaben eines für das System angepassten Wartungs- und Patchmanagement nicht nachkommen. Ja, es ist nun mal eine lästige Fleißaufgabe aber es führt auch nun mal kein Weg daran vorbei. Zumal es ja nun wirklich genug Werkzeuge für den Administrator gibt, um hier mit entsprechender Automatisierung viele Aufgaben abzufangen. Patches sind aber nur die eine Seite der Medaille, die Logs müssen auch entsprechend geprüft und die Systemmeldungen überwacht werden.
Beispiele wie man es nicht machen sollte, gibt es durch „DoublePulsar“ in Quantitativ ausreichende Zahl, dass man sich doch einmal Gedanken machen und auch Taten folgen lassen sollte. Wer noch ein weiteres Beispiel benötigt, der muss nur einfach warten, es wird zum 100 Prozent eintreten.

Big Data und nun?

Der Hype um Big Data nimmt immer weiter zu. Das Sammeln von Daten ist so zu sagen on Vogue, aber was macht man mit all den Daten, die sich angesammelt haben? Keine Frage, all diese Daten stellen einen großen Wert da und sind das digitale Gold unsere Zeit. Nur ohne eine passende Zusammenführung eben keinen nutzbaren Wert für das Unternehmen welches diese Daten gesammelt hat. Im Gegenteil, das Sammeln der Daten kosten zusätzlich Geld, weil man sie ja auch irgendwo speichern muss. Die Frage ist nun, wie macht man die Daten für das eigene Unternehmen nutzbar?

In so gut wie keinen Unternehmen mangelt es an Daten. Häufig liegen diese nur verteilt auf irgendwelchen Systemen, völlig ohne Struktur oder Zusammenhang. Aber nur entsprechend aufbereitet werden die Daten wirklich Wertvoll, wenn diese in Relation zueinanderstehen und auch als Ganzes auswertbar sind. Erst dann eröffnen sich völlig neue Perspektiven und es entstehen Synergien und vor allem Mehrwerte die sich aus diesen Daten ergeben. Bei IT Abteilungen steht häufig der Fokus auf den IT Systemen und der Sicherheit. Daher wird sich in aller Regel für ein SIEM Systemen entschieden um diese Anforderungen abzudecken. Sicherlich, ein SIEM Systemen zu verwenden in grundsätzlich eine gute Entscheidung und wenn es nur um die IT an sich geht auch in jedem Fall eine gute Wahl. Möchte man aber, wenn man schon beginnt Daten für sich nutzbar zu machen, dies ein einem größerem Rahmen tun, ist ein SIEM nicht zwingend eine gute Wahl. Daher lohnt es sich einen Blick über den Tellerrand der IT hinweg zu werfen und genau zu prüfen welche Daten es denn schon alles gibt, die einfach nur nicht genutzt werden.

Beispiele gibt es genug, alle modernen Produktionsanlagen produzieren Daten, in welcher Form auch immer. Dazu kommen alle möglichen Daten aus ERP und CRM Systemen, Online Shops, Retail-Stores usw., die einfach so schon zur Verfügung stehen. Weiter geht es mit IoT Komponenten oder Industrie 4.0 – und hier wird es richtig interessant. All diese Systeme haben eines gemeinsam, sie produzieren Daten mit hohen Wert für das Unternehmen. Ein einfaches Beispiel diese Daten zu nutzen ist das Auswerten der Betriebsparameter um daraus zu ermitteln wie hoch der Verschleiß ist und wann es zu einem Ausfall kommt. Dieses Wissen kann für die Lagerhaltung sehr wichtig ein, denn es lassen sich somit nur die Ersatzteile vorhalten die benötigt werden. Geht man noch einen Schritt weiter so kann man als Service für seine Kunden einen vorzeitigen Ersatzteilversand anbieten, weil man ja weiß, wann das Ersatzteil benötigt wird. Der Kunde hat, wenn überhaupt, nur einen kurzen Ausfall, die eigene Lagerhaltung und Produktion ist optimiert. Eine Win-Win Situation für beide Partner. Als Synergieeffekt kann man nun noch dieses Wissen in die Entwicklung einfließen lassen und auf Basis dieser Daten noch bessere Produkte entwickeln. Weniger Garantiefälle auf der eigenen Seite und der Kunde hat keine Ausfälle und ein zuverlässiges Produkt an dem wiederum die Produktion des Kunden selbst hängt.

Was Google & Co. schon lange erkannt haben, dass Daten “die” digitale Währung ist, um die sich alles dreht. Dieses Denken dringt nun auch langsam in die Unternehmen vor. So langsam wird ihnen klar, dass auf den IT Systemen ein Vermögen brachliegt, was nur nutzbar gemacht werden muss und somit stellt sich die Frage – wie?

Die gute Nachricht ist, dass dies gar nicht so kompliziert ist wie man es sich vielleicht vorstellt. Auch wenn man noch nicht ganz genau weiß, was man mit den Daten machen soll, ist es trotzdem wichtig diese erst einmal zu sammeln und zwar so, dass man sich diese auch zu Nutzen machen kann. Der Prozess der dann folgt ist mehr ein dynamischer Workflow, mit den ersten Auswertungen kommen die Ideen und Anforderungen was noch alles mit den Daten möglich ist. Vieles ist auch durch die Struktur der Daten und deren Inhalt vorgegeben, aber die Optionen wachsen exponentiell sowie die Daten korreliert werden.

 

 

Todesstoß für SHA-1

Die SHA-1 Kollision mit der Bezeichnung “SHAttered” hat nun bewiesen, dass SHA-1 als Hash-Funktion bei kryptografischen Verfahren nicht mehr geeignet ist. Mit anderen Worten: Alles was SHA-1 noch verwendet, muss auf mindestens SHA2-256 umgestellt werden – und das ohne Ausnahme!

Wer die Berichte rund um die SHA-1 Kollision aufmerksam gelesen hat, wird den Ernst der aktuellen Lage erkennen. Für alle anderen eine kurze Zusammenfassung:
Ein Forscherteam hat bei zwei offensichtlich unterschiedlichen PDF Dokumenten mit der SHA-1 Prüfsummenerzeugung jeweils das gleiche Ergebnis erhalten und das hätte nicht sein dürfen. Demzufolge kann mit SHA-1 nicht mehr geprüft werden, ob in dem Fall eines der PDF’s manipuliert wurde. Die Echtheit lässt sich somit nicht mehr verifizieren.

Die Berechnung dieser Kollision hat 6.500 Single-CPU oder 110 Single-GPU Jahre gedauert. Dies hört sich erst einmal viel ist, ist es aber nicht. Wird der Code nur ein wenig optimiert sinkt die Zahl der Jahre schon deutlich und in Anbetracht der in Massen zur Verfügung stehenden Cloud-Ressourcen von CPU und auch GPU steht ausreichend Rechenleistung für so zu sagen jedermann zur Verfügung. Aktuell belaufen sich die Kosten zum Erwerb dieser Rechenleistung auf etwas über 100.000 Euro. Was unter Umständen auch für Kriminelle kein hoher Betrag ist, wenn das “Ergebnis” zu deutlich mehr Einnahmen führen wird. Dies ist Stand jetzt, in Zukunft wird sich ein völlig anderes Bild ergeben. Dazu muss man sich nur das Beispiel MD5 anschauen. Im Jahr 2008 wurde ein Cluster aus über zweihundert PS3 benötigt, der dann mehrere Tage rechnen musste. Heute ist eine aktuelle CPU weniger als eine Sekunde beschäftigt und MD5 ist geknackt. Ein Smartphone schafft dies auch mehr oder weniger problemlos in weniger als 30 Sekunden. SHA-1 ist somit tot und darf ab sofort nicht mehr verwendet werden. Die Auswirkungen sind weitreichend und es besteht ein dringender Handlungsbedarf. Betroffen ist alles was SHA-1 verwendet, wie zum Beispiel digitale Signaturen, Archive, DMS, Backups, Deduplication, Repository, Software Signaturen, VPN, SSH usw.

Alle VPN Verbindungen und hier insbesondere IPSec müssen auf sichere kryptografische Füße gestellt werden. Wenn auch in Zusammenhang mit IPSec nach aktuellem Stand ein praktischer Angriff im Moment ausgeschlossen ist. Trotzdem ist es auch hier wichtig SHA-1 abzulösen. An dieser Stelle noch einmal den Hinweis auf die technische Richtlinie TR-02102 des BSI. Wichtig ist jetzt, trotz des notwendigen Handlungsbedarfs, die Ruhe zu bewahren und nicht in blinden Aktionismus zu verfallen. Der nächste Schritt muss die Ermittlung des IST-Zustand sein, anhand dessen dann die darauffolgenden Schritte eingeleitet werden können um SHA-1 durch mindestens SHA2-256 zu ersetzen. In diesem Zuge sollte auch alles auf AES und wenn es möglich auf elliptische Kurven umgestellt werden.

Die Aufgabe einer jeden IT Abteilung besteht nun darin zu prüfen an welchen Stellen der vorhandenen Infrastruktur noch SHA-1 oder auch andere alte Verschlüsselungsverfahren verwendet werden. Auf Basis dieser Erkenntnis ist dann ein Konzept zu entwickeln wie der Austausch durchgeführt werden kann. Ausreden ab jetzt gibt es keine mehr, vor allem sind jetzt die Hersteller von Systemen und Software in der Pflicht sehr zeitnah Abhilfe zu schaffen. Alle die jetzt überrascht tun und sich auch erst jetzt bewegen sollten besser keine Produkte anbieten die etwas mit IT Sicherheit zu tun haben. Denn schon in 2005 war klar, dass SHA1 eine Schwäche für Kollisionen hat und bei mehr als 10 Jahren Zeit sollte man schon erwarten, dass das Problem angegangen wird.

Archive oder Backups auf Disks

Daten werden nicht mehr gelöscht, Ablagen und Archive werden immer größer und somit die Aufbewahrungszeiten immer länger. Moderne Backup Software bietet entsprechende Optionen zur Langzeitaufbewahrung an, die dann auf den Disk Repositories vorgehalten werden. Diese Langzeitaufbewahrung stellt aber höhere Anforderungen an die Systeme zur Speicherung der Daten und hier Insbesondere an die Datenintegrität und somit an die tatsächliche Verfügbarkeit.

All diejenigen die Daten lange zur Verfügung stellen wollen, müssen sich bewusst sein, dass die Datenintegrität nicht bei allen Systemen gewährleistet ist. Viele der häufig verwendeten Dateisysteme haben keine Mechanismen die diese Fehler erkennen und erweisen sich somit als problematisch, wenn Daten lange und zuverlässig zur Verfügung stehen sollen. Die häufigste Ursache ist ‘silent data corruption’ auf dem Speichermedium, sprich der Festplatte oder auch der SSD. Das CERN hat dazu 2007 eine Studie auf Basis der damaligen 15 PT CERN Daten durchgeführt, die zum Fazit gekommen ist, dass es ca. 3 fehlerhafte Dateien pro Terrabyte gibt. Im Blog des Storage Consortiums gab es in 2012 einen Beitrag der sich ebenfalls mit diesem Thema befasst hat. Trotzdem wird diese Gefahr von vielen Administratoren unterschätzt oder sie wissen gar nicht wie hoch die Wahrscheinlichkeit ist, dass so etwas passiert. Da dieses Thema jeden betrifft, ist es an der Zeit dieses noch einmal anzusprechen und in das Bewusstsein zurückzurufen.

Jetzt könnte man sagen, dass die Studie des CERN nun 10 Jahre alt ist, aber an der Aktualität hat sich nichts geändert. Eher im Gegenteil, es werden immer mehr Daten produziert die immer länger aufbewahrt werden sollen und müssen. Dies gilt nicht nur für Backups sondern auch für ganz normale Shares oder (Web-) Applikationen. Daten werden nicht mehr gelöscht, sondern einfach aufgehoben, wer weiß schon, wann man dieser noch einmal benötigt. Gerade bei großen Mengen in Quantität und Volumen von unstrukturierten Daten sind drei Files je Terrabyte eine große Menge an defekten Dateien.

Hardware alleine, ganz egal wie hochwertig diese auch immer sein mag, kann das Problem nicht lösen. Der Einsatz einer entsprechend hochwertigen Basis ist natürlich eine Grundvoraussetzung um einen Datenverlust vorzubeugen und zuverlässige Systeme zu betrieben. Aber man muss noch einen Schritt weitergehen. Es braucht Systeme die die Datenintegrität sicherstellen und somit eine Langzeitaufbewahrung möglich machen. Einen entsprechenden Ansatz bieten zum Beispiel die Dateisysteme ZFS und btrfs. Wobei ZFS in der Entwicklung schon sehr weit fortgeschritten ist. Im Storage Umfeld bieten Hersteller wie zum Beispiel Quantum (aber auch andere) entsprechende proprietäre Systeme an, die die Daten regelmäßig auf ihre Konsistenz hin prüfen. Gerade bei der Langzeitaufbewahrung mit automatischen Tierings bis hin auf Bänder ist das Portfolio gerade bei Quantum sehr gut ausgebaut. Große professionelle Lösungen sind auf dem Markt vorhanden und wenn man ein entsprechendes Volumen benötigt oder eine Anforderung erfüllen muss, macht es auch Sinn sich für einen solchen Anbieter zu entscheiden. Lösungen wie Quantum’s „StoreNext“ auf Basis von Systemen wie Xcellis, Artico oder gar Lattus mit den passenden Bandlaufwerken und Bibliotheken sind skalierbar, haben Herstellersupport und sind dementsprechend wirtschaftlich im Verhältnis der Anforderungen und der benötigten Verfügbarkeit. Zudem bietet die Speicherung auf Bänder ein großes Einsparungspotential bei Speicherkosten und vor allem bei den Energiekosten.

Oft sind aber die Anforderungen an solche Ablagen bei egal welcher Unternehmensgröße deutlich kleiner. In vielen Fällen ist schon mal eine Insellösung gesucht, die erst einmal gar nichts mit dem aktuellen zentralen Storage zu tun haben soll oder muss. Die Daten sollten schon verfügbar sein, einigermaßen ausfallsicher vorgehalten werden, die Storage Performance sollte „ok“ sein, das Volumen entsprechend groß und lange sollten die Daten natürlich schon aufbewahrt werden. Im Fall der Fälle könnte man schon auf die Daten verzichten – ‘nice to have’ wäre schon sie zu haben.

Häufig fällt bei diesen Szenarien die Wahl auf ein NAS der üblichen Verdächtigen. Hier gibt es einige Hersteller auf dem Markt die ohne Frage gute Produkte anbieten. Ob QNAP, Thecus, WD, Synology usw. haben NAS Systeme von klein bis groß im Portfolio. Die Basis bei (fast) allen ist Linux in Kombination mit einem Software RAID (md), einem Volumen Manager (LVM) und dem Dateisystem ext4. An sich eine solide Basis, wenn da nicht die grundsätzliche Schwäche der Hardware wäre. Kommt es hier zu einer ‘silent data corruption’ schlägt es bis auf das jeweilige File durch. Da aber gerade diese Ablagen einige Terrabytes vorhalten, ist die Anzahl der defekten Dateien auf Basis der CERN Studie nicht gerade gering.

Da die Hersteller ein mehr oder weniger geschlossenes System anbieten, bleibt einem hier keine andere Wahl, als das System so zu nutzen wie es der Hersteller vorgesehen hat. Der Vorteil ist natürlich, dass die Administration des Systems durch die GUI sehr einfach ist. Wenn man hier selbst ein NAS auf Basis von Linux aufbauen möchte ist doch einiges an Handarbeit angesagt, bis es passend funktioniert. Dazu kommt dann das Problem der Wartung, denn bei viel Handarbeit wird diese auch bei der Wartung benötigt. Wenn man die Datenintegrität auf lange Zeit für eine solche Ablage zur Verfügung stellen muss bleibt nur der Einsatz von btrfs oder ZFS. Wobei hier dann beide Dateisysteme unter Linux durch die diversen Einschränkungen in Verbindung mit den Anforderungen eine nicht wirklich gute Wahl sind. Btrfs erlaubt aktuell nur RAID-1 bzw. RAID-10 für den produktiven Einsatz und nur Ubuntu 16.04 LTS bietet zum ersten Mal ZFS unter Linux in dieser Form an. ZFS als solches wäre schon das Dateisystem der Wahl für eine solche Anforderung. Damit ist man dann aber sinnvoller Weise beim Einsatz von FreeBSD und OpenZFS. Wer es sich geben möchte kann auch gerne Richtung Illumos blicken, dem Fork der letzten freien Version von OpenSolaris. Also jetzt für diejenigen, denen oft langweilig ist.

Wenn aber ZFS schon das geeignetste Dateisystem ist, wobei Dateisystem so nicht ganz stimmt, denn es ist Software RAID, Volumen Manager und Dateisystem in einem. Dann sollte man sich FreeNAS durchaus mal ansehen. Es basiert auf FreeBSD nutzt ZFS und lässt sich komplett per GUI verwalten und dass inklusive der Updates. Alle Funktionen die kommerzielle NAS Systeme bereitstellen gibt es hier ebenfalls und man kann es auf der eigenen Hardware einsetzen. Hier gilt es aber ein paar Dinge zu beachten, FreeBSD muss die Hardware unterstützen und das System sollte direkt auf die Festplatten zugreifen können. Eine Abstraktion der Platten durch RAID Controller läuft den ZFS Eigenschaften zuwider und bringt mehr Nach- als Vorteile mit sich. Wenn man also Hardware für das eigene NAS Basis von FreeNAS anschaffen möchte ist ein Blick in die Dokumentation wichtig. Dafür erhält man aber ein sehr gutes NAS was komplett auf Open Source Software ohne die für den Zweck unsinnigen Cloud Apps daherkommt. Die eigene Hardware hat den Vorteil, dass man diese mit ausreichend RAM und je nach Anforderung mit SSD’s ausstatten kann, was wiederum dem ZFS entgegenkommt. Dank dem ZFS gibt einige Funktionen die nicht nur die Daten vor ‘silent data corruption’ schützen, man erhält auch Snapshots und Replikation auf ein zweites FreeNAS auf deren Basis. Dabei muss das zweite FreeNAS gar nicht lokal stehen, denn die Replikation erfolgt mittels SSH Verbindung, was es problemlos möglich macht, dass zweite System im externen RZ unterzubringen. Durch den Volumen Manager kann das NAS entsprechend den Anforderungen wachsen und dies einfach mit JBOD’s, denn mehr braucht es dafür nicht. Die Snapshot lassen sich für noch andere Zwecke benutzen. Es lassen sich periodische Snapshots erstellen, um auch Änderungen an den Archivdaten nachvollziehen zu können, diese so auch gegen Ransomeware Attacken schützen zu oder was man sonst noch mit ihnen anstellen kann. Das in ZFS vorhandene RAID-Z und die Prüfsummen sorgen für die notwendige Sicherheit. Durch die Prüfsummen ist sichergestellt, dass ‘silent data corruption’ erkennt und sogar, wenn möglich automatisiert korrigiert werden kann. Das RAID-Z stellt Mirroring oder die Kompensation des Ausfalls einer oder zwei Platten in einem Verbund bereit. Es ist aber kein RAID 1, 5 oder 6 im klassischen Sinne. Durch die Abstraktion mit Pools und dem 128bit Dateisystem sollte es auch keine Probleme mit sehr großen Voluminas und Anzahl von Dateien geben. Derzeit sind 254 Zettabyte möglich, die Anzahl der Dateien je Verzeichnis beträgt 2^48 . Dies in Verbindung mit der eigenen Hardware und den Snapshots und deren Optionen stellt eine wesentlich bessere Basis bereit, als man diese mit einem NAS von der Stange erreichen würde.

An dieser Stelle sollte aber nicht unerwähnt bleiben, dass QNAP ebenfalls NAS Systeme auf Basis von FreeBSD und ZFS anbietet. Ein weiterer bekannter Anbieter von SDS auf Basis von ZFS ist nexenta. Ehemals Sun (jetzt Oracle) setzt bei den auf Sparc basierten Servern, Storages oder Mainframes ebenfalls auf ZFS. Alle die sich nun Fragen wie viel ein Zettabyte ist: 1 Zettabyte sind 1024 Exabyte und 1 Exabyte sind 1024 Terrabyte.   
Wer Fragen zum Thema hat, kann sich wie immer gerne an uns wenden.

Die IT der Zukunft – Ausblick auf 2017 und darüberhinaus

Langfristig wird die IT der Zukunft in der Cloud beheimatet sein, nicht nur für gewerbliche Kunden aus den USA, sondern auch aus Europa, was Deutschland miteinschließt, und natürlich auch aus dem Rest der Welt. On-Prem werden bei Industrieunternehmen nur noch produktionsnahe Dienste betrieben, damit bei Verlust der Konnektivität die Produktion davon nicht unmittelbar beeinträchtigt wird. Alle anderen Unternehmen haben lokal so gut wie keine oder eher nur noch unwichtige Server Dienste. Alle anderen Services sind in der Cloud beheimatet. Netzwerke, Router, Firewalls, Application Delivering, Container, Apps und vor allem die IT Security werden die primären Themen der zukünftigen IT sein. Der Betrieb des Rechenzentrums an sich rückt immer weiter aus dem Focus der IT Abteilungen, langfristig wandeln sich die Aufgaben.

Warum die Cloud?

Warum es Unternehmen in die Cloud zieht hat teilweise sehr pragmatische und vor allem auch wirtschaftliche Gründe. Dazu gehören vorne weg die eher geringen Kosten beim Start in die Cloud. Gerade dann, wenn man nicht weiß wohin die Reise der eigenen IT geht, wie sich die Standorte der Niederlassungen entwickeln oder man auch noch gar nicht weiß, welche Applikationen es denn sein werden. Die Ressourcen in einem lokalen Rechenzentrum vorzuhalten, was im Sizing zu Beginn viel zu groß war, ist für viele Unternehmen kaum noch zu bezahlen und später steigen die Kosten zusätzlich, wenn die Ressourcen nicht mehr ausreichen und diese erweitert werden müssen. Da kommen die Pay-what-you-use Szenarien und die dynamische Skalierung mehr als nur gelegen und stellen für die meisten die passende Lösung dieses Problems da. Hier zeigt sich dann, dass die Schlagworte SDDC, SDN, NFV, Mikroservices, Container usw. Realität sind, denn all dies kann schon jetzt produktiv genutzt werden.

Ein weiterer Grund für viele Unternehmen ist die Anforderungen weltweit Applikationen zur Verfügung zu stellen müssen. Weltweite ScaleOut Modelle aufzubauen und in Eigenregie mit eigener Hardware zu betreiben, können die meisten mittelständischen Unternehmen mit ihren IT Teams nicht stemmen. Die Komplexität einer solchen Anforderung übersteigen oft die Ressourcen und das KnowHow der eigenen IT. Alleine die Konzeptionierung eines solchen Vorhabens ist häufig schon zum Scheitern verurteilt. Dazu kommt die Komplexität der heutigen IT Infrastruktur im Allgemeinen und im Besonderen im Rechenzentrum sowie die Vervielfachung in einem globalen Szenario. Hier muss auch berücksichtigt werden, dass es zu Beginn ja eine Hybrid Cloud ist, denn das oder die eigenen Rechenzentren sind ja vorhanden und müssen integriert werden. Selbst vermeintlich so kleine Dinge wie “nur” das IP und Routing Konzept, ist weltweit gesehen schon eine Herausforderung. Ein solches Konzept geht weit über statische Routen hinaus. Vor allem dann, wenn Ausfälle kompensiert und globales Load Balancing oder Application Providing zum Einsatz kommen sollen.

Viele dieser Probleme werden später durch „die Cloud“ gelöst, denn der Anbieter hinter der Cloud kümmert sich um alles, was für den Betrieb notwendig ist. Man kann einfach Container oder wie Google es mit GCP anbietet, einfach seinen Code online bringen und sich praktischer Weise nicht mehr um die Infrastruktur kümmern müssen. Gerade bei Projekten mit mehr oder weniger öffentlich publizierten Daten und Diensten bietet sich die public Clouds gerade zu an. Bei sensiblen Daten sieht es doch noch etwas anders aus, was gerade in diesen Fällen wichtig ist und man sich dessen bewusst werden muss – es sind nunmal die eigenen Daten. Diese Daten möchte man nicht einfach so in die public Cloud legen. Die private Cloud ist hier das Mittel der Wahl oder ein Konzept, welches die Daten in den großen Clouds passend schützt. Im Fall der private Cloud stellt man beim Rechenzentrumsbetreiber seines Vertrauens seine Systeme ein oder mietet diese und spart sich den physikalischen Betrieb des eigenen Rechenzentrums. So weiß man wo seine Daten liegen und wem die Systeme gehören und somit wer Zugriff auf diese hat. Zwar bekommt man so einen Teil der Komplexität wieder aufgebürdet, wie auch Teile des Betriebs an sich. Aber bei sensiblen Daten sollte dies es einem Wert sein, zumal man mit dem Anbieter seines Vertrauens auch einen Partner hat, der einem beim Betrieb unterstützt und vieles an Aufgaben abnehmen kann. Benötigt man schnell vorzeigbare Ergebnisse bleibt nur die Nutzung eines der großen Cloud Anbieter, dies aber am besten in Kombination mit der eigenen private Cloud. Je nach Konzept lassen sich so die Dienste im Frontend von denen im Backend und den Daten trennen. Die sensiblen Daten liegen auf eigenen Systemen, wo diese auch immer stehen und die public Cloud wird zum Ausliefern der Services an sich verwendet. So kann man von der geringen Latenz der weltweiten Datacenter des Anbieters profitieren ohne sich gänzlich dem Anbieter auszuliefern. Man bleibt Herr über die eigenen Daten was auch im Zeitalter der Cloud ein sehr wesentlicher Punkt ist und bleibt.

Aus diesen Gründen wird das eigene On-Prem Rechenzentrum in der heutigen Form langfristig immer mehr an Bedeutung verlieren und viele Dienste wandern in Richtung einer dieser Clouds ab. Es wird Zeit die aktuell nur modernisierte 90’er Jahre IT hinter sich zu lassen. Es ist zwar nicht so, dass die aktuelle IT schlecht ist, aber die Rahmenbedingungen haben sich mehr als nur deutlich geändert. Besonders in der Arbeitswelt, hier muss sich die IT einfach anpassen und der Mobilität, der Flexibilität und den Wünschen der Menschen an ihren Arbeitsplatz Rechnung tragen. Was oder wer sonst, wenn nicht die IT, kann dies leisten? Wir leben in einer Zeit des Umbruchs, gerade in der Arbeitswelt und auch im privaten Leben. Industrie 4.0 und IoT sind die Schlagworte die omnipräsent sind.

Was muss sich ändern?

Die Applikationskultur muss sich ändern, vor allem in den Köpfen. Besonders schwer fällt es denjenigen die mit lokalen Applikationen, nicht Apps, groß geworden sind. Es war ganz normal, dass die Anwendung auf dem eigenen PC installiert war und betrieben wurde. Die Daten wurden auf der eigenen Festplatte abgelegt, im besten Fall noch mit einer Sicherung auf einem Netzlaufwerk. Auf diesem Denkansatz beruht in vielen Fällen auch immer noch der Betrieb des lokalen Rechenzentrums. Alles liegt lokal aber im eigenen Rechenzentrum. Das Argument für diesen Betrieb, was oft angeführt wird ist, dass man im Notfall auch ohne Internet arbeiten kann. Aber dieses Argument ist schon lange keines mehr, denn nein, kann man nicht, man hat nur das Gefühl, dass man es könnte – es ist aber in Wirklichkeit nur eine Illusion. So viele Ressourcen und für den Betrieb nötigen Dienste sind nur online zu erreichen, dass man ohne Internet nicht wirklich arbeiten kann. Natürlich kann man noch einen Text schreiben, aber selbst eine lokale Anwendung greift wesentlich häufiger auf Ressourcen im Internet zu als man vielleicht denkt. Daher stellt sich die Frage gar nicht, denn ohne Internet hat man keinen Zugriff auf die notwendigen Ressourcen. Für das gute Gefühl hat Google und auch Mircosoft mit Docs bzw. Office 365 einen offline Mode zur Hand. Aber wenn man ehrlich ist, geht das Arbeiten nicht wirklich gut von der Hand, wenn man keinen Zugriff auf die Ressourcen im Internet hat.

All diejenigen, die im Zeitalter der Mainframes, MicroVAX’e, AS/400’s & Co. groß geworden sind oder in der Phase Kontakt zu diesen Systemen hatten, als diese gerade durch den Einzug des PC abgelöst wurden, sehen kein gänzlich neues Konzept in der Cloud. Alle Ressourcen wie Rechenleistung und Speicher werden durch das Rechenzentrum über das Netzwerk dem Anwender zur Verfügung gestellt. Die Cloud ist so gesehen mit ihren Ressourcen von Compute und Storage nur ein sehr sehr großes und weltweit verteiltes Rechenzentrum und das lokale Netzwerk wird in diesem Fall durch das Internet ergänzt und dies macht das alte neue Rechenzentrum überall verfügbar. Auf diese Basis heruntergebrochen ist also die Cloud nichts Anderes als vom Client losgelöste Ressourcen, auf die der Client über ein Netzwerk zugreift und der Client nur zur Anzeige dieser Daten und nicht zu deren Verarbeitung dient. Blickt man zurück, so war der damalige Ansatz die Ressourcen im Rechenzentrum vorzuhalten im Grundsatz richtig. Die technologischen Rahmenbedingungen waren es zu dieser Zeit einfach nicht. Es fehlte an Rechenleistung, Bandbreite, den passenden Technologien wie HTML 5 und auch das Internet gab es so nicht. Mit dem Siegeszug der x86-Architektur und Microsoft gab es zwar Server mit aus heutiger Sicht eher mageren Diensten, aber Microsoft hat es geschafft die PC zu vollwertigen Clients auszubauen die alle Anwendungen lokal vorhielten. Nach dem das geschafft war und die Komplexität kaum noch zu bewältigen, ging der Weg mit Terminal Server und Anbietern wie Citrix wieder zurück in’s Rechenzentrum. Nach dieser von Weiten betrachteten Wellenbewegung vom Rechenzentrum zum Client, wieder ins Rechenzentrum zurück und nun in die Cloud, sind wir nun an diesen Punkt, wo es aus der Cloud, egal ob private, public oder hybrid keinen sinnvollen Weg zurück mehr gibt. Denn das was heute eine private Cloud leistet, kann nicht mehr mit lokal installierten Anwendungen bereitgestellt werden.

Um aber noch mal auf die Applikationskultur zurück zu kommen, muss sich diese dahingehend ändern bzw. sich anpassen, dass die Anwendungen fit für das Rechenzentrum und somit die Cloud werden, wenn es die Anwendungen nicht schon sind. Nimmt man das Beispiel Office und eMail machen es Google und Microsoft vor, wie die Cloud Variante der lokal installierten Klassiker aussieht. Ob Google Mail mit Google Docs oder Microsofts Office 365, beide zeigen wie es geht. Die Anwendungen stehen den installierten Versionen kaum nach oder sind ihnen gar schon einen Schritt voraus. Salesforce ist ebenfalls ein Beispiel welches hier zu nennen ist. Hier hat es nie eine lokale Version gegeben, alles ist und war seit je her in der Cloud zu Hause. Auch Oracle geht den Weg in die Cloud, nicht nur mit dem Service Datenbank und BigData, sondern hat auch einen Anbieter gekauft, der ebenfalls CRM und ERP Cloudsysteme anbietet. Dazu kommen dann noch all die webbasierenden Anwendungen zum Austausch von Daten und zur Kollaboration an sich. Die Zukunft ist der Browser und HTML5 sowie auch die Apps auf den mobilen Geräten. Aktuell hinkt SAP mit ihrer WebGUI noch deutlich hinter der installieren Version der SAP GUI hinterher. Aber das auch hier die Weichen in Richtung Cloud gestellt sind, zeigt mehr als nur deutlich die Kooperation von SAP und Apple oder die von Apple und IBM. SAP als auch IBM haben den Fokus auf das mobile Arbeiten gelegt. Sicherlich vollzieht sich der Wandel nicht von heute auf morgen oder in 2017, trotzdem ist dieser Wandel da und es ist nur vergebene Mühe sich dem langfritstig widersetzen zu wollen. Es wird auch an Alternativen mangeln, die sich lokal installieren lassen. Lieber sollte man seine Ressourcen darauf verwenden, diesen Weg aktiv mitzugestalten und den für sich besten Weg zu finden und bestenfalls diesen Weg selbst zu erarbeiten und somit zu gestalten. Diesen Weg zu sehen und auch seine Vorteile zu erkennen und zu erarbeiten werden unabhängig von der Umsetzung die Aufgaben in 2017 sein.

Es funktioniert besser als gedacht!

All diejenigen, die es sich nicht vorstellen können, sollten es einmal ausprobieren. Noch vor ein paar Jahren sind die meisten Blog Artikel in einer lokalen Textverarbeitung entstanden. Man muss auch zugeben, dass damals der WordPress Editor nicht wirklich gut war, auch die aktuelle Version von WordPress hat noch Defizite. Nach dem ein Artikel fertig gestellt war, wurde er per Copy&Paste in’s WordPress übernommen und veröffentlicht. Der Nachteil war, man konnte nur am Artikel arbeiten, wenn man sein Notebook bei sich hatte. In den letzten Jahren aber entstehen die Artikel alle samt unter Google Docs, denn diese online Textverarbeitung, war und ist wesentlich besser als der WordPress Editor. Es hätte auch statt Google Docs das Office 365 von Microsoft sein können, beide sind hier austauschbar, weil die Funktionen mehr oder weniger identisch sind. Es bieten sich die Blog Artikel auch geradezu an, denn diese werden sowieso veröffentlicht und enthalten nun wirklich keine sensiblen Daten die entsprechend geschützt werden müssen. Der andere eher banale Grund ist die einfache Zusammenarbeit mit anderen. Sei es korrekturlesen oder Verbesserungsvorschläge, damit die Artikel leichter lesbar sind. Als Techniker neigt man ja oft dazu viele Begriffe und Abkürzungen vorauszusetzen und dies macht damit einen Artikel für einen nicht Techniker schwierig zu verstehen. Hier gibt man das Dokument einfach frei, man braucht nicht darauf zu achten, dass es im “richtigen” Format ist, es funktioniert einfach. Als Gimmick hat man obendrein noch eine Versionierung, eine Änderungshistorie oder eine automatische Speicherung. Die Bearbeitung ist völlig unabhängig vom Endgerät und dem Betriebssystem. Wie schon gesagt, es geht hier nur um Blog Artikel, weder um investigativen Journalismus, noch um personenbezogene Daten oder gar geheime Informationen – nur um einen Blog-Artikel.

Was es aber zeigt, ist wie gut es funktioniert. Vor allem zeigt es auch, woran es bei den herkömmlichen Anwendungen im beruflichen Alltag fehlt, einfache Kollaboration und der Austausch mit anderen ohne, dass man Mails mit Anhängen jenseits der 50 MB versendet. Vor allem fehlt eine Alternative zur Dateiablage, denn der klassische Share ist in sehr vielen Fällen einfach nicht mehr zeitgemäß. In einem großen Share das zu finden was man sucht, ist eine seht nervige Angelegenheit. Man investiert Zeit in eine Sache, die sich viel einfacher lösen lies. Kleiner Exkurs: Das SMB Protokoll ist aus dem Jahre 1983 und CIFS gibt es seit 1996, grundlegende Änderungen gibt es hier in Sachen Verzeichnisse und Dateien keine. Was sich dagegen aber geändert hat, sind die Anzahl und das Volumen von Dateien, Verzeichnissen und Shares.

Wenn sie sich jetzt fragen, warum ein IT Dienstleister und Systemhaus welches Infrastrukturen und Rechenzentren aufbaut, Pro Cloud ist, so ist die Antwort einfach. Wenn sich die Rahmenbedingungen ändern, kämpft man nicht gegen sie an und hält an den alten Zöpfen fest so lange es geht, sondern im Gegenteil, man gestaltet mit Kunden und Partnern die private und hybrid Cloud mit. Dies gilt auch für die IT Abteilungen in den Unternehmen selbst, diese werden ja nicht wegen der Cloud obsolet. Eher im Gegenteil, wer, wenn nicht die IT selbst ist hier gefordert aktiv zu werden. Nach wie vor sind Fachwissen und Erfahrung von großer Bedeutung, unabhängig wo die Ressourcen zum Betrieb der Anwendungen herkommen. Auch braucht es immer Administration und auch lokale Infrastruktur, diese ist dann nur an die neuen Rahmenbedingungen angepasst. Zudem wird dieser Wandel sich eher langfristig etablieren. Bis dahin braucht es die IT in der aktuellen Form, jedoch mit dem Blick in die Zukunft und der dafür passenden Strategie. Es müssen sich auch mehr Dinge ändern, wie zum Beispiel die Bandbreiten der Internetanbindungen oder auch wie aufgezeigt, die Applikationen selbst. Aber jetzt ist die Gelegenheit da, den Weg dorthin aktiv mitzugestalten und genau darum geht es. Schon jetzt das Richtige für die IT von Morgen zu tun.

Natürlich darf bei all der visionären Sicht auf die IT der Zukunft der direkte Blick auf 2017 nicht fehlen. Auch im neuen Jahr wird es wieder Themen geben, die das Jahr prägen werden. Die Gefahren die von den Botnetzen und den anderen Cyber Angriffen ausgehen, werden weiter zunehmen. Die 1 Terabit Grenze für (D)DoS Angriffe ist gefallen und diese Art der Angriffe werden in 2017 noch weiter zunehmen. Dies gilt auch für (D)DoS Angriffe ab Layer 4 aufwärts, wie zum Beispiel die Nurse Attack. Alle Themen die uns Ende 2016 begleitet haben, verschwinden ja nicht, nur weil sich die Jahreszahl ändert. Ganz weit oben auf den ToDo’s in 2017 steht die IT Sicherheit. Wenn die Angriffe aus dem vergangenen Jahr etwas gezeigt haben, dass es hier noch viel Potential nach oben gibt. Die IT Infrastrukturen sind anfälliger als viele gedacht haben. Der sichere Betrieb, auch der von kritischen Systemen und Umgebungen, wird eines der Kernthemen in 2017 werden.

Allen ein frohes neues Jahr!

Jahresrückblick 2016

Da ist sie wieder, die Zeit in der die Jahresendzeitfiguren mit Flügeln die Schaufenster und Auslagen zieren. Das Jahr neigt sich dem Ende zu, es wird nun wieder unweigerlich Zeit für den Jahresrückblick und man fragt sich, wo ist denn nur die Zeit geblieben. Was hat die IT Welt in 2016 bewegt? Auch soll der Blick über den Tellerrand nicht unberücksichtigt bleiben.

Das Jahr 2016 war unbestritten das Jahr der Ransomware, denn so viele befallenen Systeme und namhafte Opfer gab es in dem Ausmaß noch nie. Vor allen fällt hier die Professionalität der Cyber Kriminellen auf, sich ständig an die Gegenmaßnahmen anpassenden Code, Support-Teams die die Opfer beim Überweisen der BitCoins zur Hand gehen oder auch Anleitungsvideos auf den üblichen Plattformen. Auch war 2016 das Jahr in dem (D)DoS Attacken eine neue Quantität und auch Qualität bekommen haben. Die (D)DoS Angriffe mit 665 Gbit/s auf den Blog von Brian Krebs, einen Sicherheitsforscher, nach dem er im ‚Darknet’ einen großen Online Shop eines DoS Attack Anbieters aufgedeckt hatte. Eine der größten Angriffe überhaupt folgte dann später auf den Anbieter Dyn und seine kommerziellen DNS Dienste mit 1,1 Tbit/s von IoT Geräten auf Basis von GRE und SYN Flood’s. Durch diesen Angriff waren unter anderem so große Dienste wie Twitter betroffen. Zweifelsohne ist 2016 eines der Jahre in der IT Welt was ein gänzlich neues Level in Sachen Cyber Crime aufgezeigt hat. Auch nicht zu vergessen der Angriff auf die Telekom Router mit knapp einer Million betroffenen Kunden oder die Black Nurse Attack. Leider war das wohl nur der Anfang, wenn man sieht, wie wenig Wert doch viele Anbieter und auch Anwender auf die IT Sicherheit legen. Jetzt könnten wir (salutec) sagen, wir haben es ja vorher gesagt und es stimmt auch. Denn vor mehr als einem Jahr gab es hier im Blog einen Beitrag, der vor den Gefahren des IoT warnte. Leider trifft es jetzt nicht so ganz zu, denn dieses Ausmaß ist noch viel schlimmer als damals aufgezeigt. Yahoo darf sich in Sachen negativen und falschem Verhalten aber ganz an die Spitze stellen. Wer sich schon in 2014 über 500 Millionen Account Daten entwenden lässt, es erst mal nicht bemerkt hat oder haben will, dann noch versucht die Sache zu vertuschen, statt umgehend die eigenen Anwender zu warnen, müsste eigentlich den Laden dichtgemacht bekommen. Bei dieser ganz bewussten Täuschung ging es nur ums Geld, genauer um den Verkaufspreis selbst. Ob Internet Dinosaurier oder nicht, so etwas zu tun, ist mehr als nur dumm, es ist unverantwortlich. Vor allem auch deshalb, weil immer mehr an’s Licht kommt, was bei Yahoo gelaufen ist. Nicht umsonst haben immer mehr Yahoo Mitarbeiter aus dem Bereich IT Sicherheit das Unternehmen verlassen. Yahoo hat nicht nur ein Sicherheitsproblem, sondern auch ein massives Layer-8 Problem in der Unternehmensführung. Ein sehr wichtiges Thema der ganzen Caber-Angriffe in 2016 ist der Einbruch in Systeme zur Industriespionage, nicht zuletzt Thyssen-Krupp die damit an die Öffentlichkeit gegangen sind, wurden in 2016 Opfer solcher Angriffe. Wer hier immer noch glaubt, kein potentielles Opfer zu sein, der irrt, es ist nur die Frage wann und nicht on es einen treffen wird.

Blickt man auf das Jahr zurück, dann fällt es einem schwer, sich an andere Themen zu erinnern, die es in 2016 auch noch gab. Aber was wäre ein Jahresrückblick ohne diese Themen?! Hier eine kleine Auswahl der Themen die in Anbetracht der Ransomware, Cyber-Einbrüche und (D)DoS Angriffe etwas untergegangen sind.

Da gab es Millionen von kabellosen Tastaturen, die mit einer 90 Euro Hardware abgehört werden können, weil die Hersteller in Sachen sichere Kommunikation sich mehr als nur amateurhaft angestellt haben.

Ein anderes Thema was viele Nutzer von Consumer Internet Zugängen gefreut haben dürfte, ist der Fall des Routerzwangs, auch wenn dies nur teilweise erfolgreich war. Das gleiche gilt in Sachen der WLAN Störerhaftung bei Gast WLAN Zugängen. Hier gilt leider auch, viel gewollt, mit gefährlichen Halbwissen gute Absichten gehabt zu haben, aber doch nicht wirklich was erreicht.

Google’s AlphaGo KI schlägt Lee Sedol, einem der weltbesten Go-Spieler. Es war vielleicht nicht ganz fair, denn Google verfügt mit all seinen Rechenzentren über so viele Ressourcen, die alle gegen einen standen, jedoch zeigt es aber auch, wie leistungsfähig heute schon KI’s sind. Um beim Thema HPC zu bleiben, hat China noch mal eins draufgelegt und sich den Platz 1 der Top 500 gesichert. Der Supercomputer mit dem Namen TaihuLight auf ARM Basis (nicht x86_64) mit einem eigenen Linux ist seit diesem Jahr der unangefochtene Spitzenreiter der Top500. Mit “nur” 15,3 MW Leistungsaufnahme benötigt das System weniger als die Nummer Zwei (Tianhe-2) mit 17,8 MW bei dreifacher Compute-Leistung.

Der IPv6 Traffic knackt die 20% Marke – es tut sich also etwas.

Natürlich wollen wir auch den einen oder anderen „Geburtstag“ in 2016 nicht vergessen:

Vor 10 Jahren stellte SGI IRIX ein, das IRIX Dateisystem XFS gibt es seit 15 Jahren für Linux und hat dieses Jahr noch ein Feature Upgrade bekommen. Es ist auch noch immer eines der Dateisystem erster Wahl wenn es um große Volumes oder Shares geht.

Vor 15 Jahren kam der erste Apple iPod auf den Markt und hat seitdem die komplette Musikindustrie umgekrempelt und viele der großen Player einfach vom Markt gefegt.

Vor 20 Jahren: Juniper Networks wird gegründet und hat Stand heute im Carrier und ISP Bereich Cisco den Rang abgelaufen. Das ganz große Thema bei Juniper ist NFV, da dürfte der Vorsprung vor Cisco & Co. noch größer sein.

Vor 25 Jahren; Tim Berners-Lee stellt www in die UseNet Gruppe hypertext. Das war der Anfang von was ganz Großen und heute sind wir beim Web 2.0 und darüber hinaus.

Vor 75 Jahren (1941) Inbetriebnahme des Zuse Z3. Ok, Web 2.0 und NFV war zu der Zeit noch kein Thema, aber wenn man so will ist der Z3 einer der Urväter der IT an sich.

Da sind wir auch schon wieder am Ende, wenn auch nicht einem umfassenden Jahresrückblick. Aber es war wieder ein sehr besonders Jahr, mit Kunden, Partnern und all den anderen was uns sehr viel Freude bereitet hat. Natürlich gab es auch wieder die stressigen Momente, trotzdem überwiegt das Positive mehr als nur deutlich und das ist das Verdienst aller, daher bleibt uns nur an dieser Stelle wieder allen Danke zu sagen, für das vergangene Jahr. Wir wünschen allen, die uns in welcher Form auch immer begleiten, frohe, besinnliche und entspannte Festtage mit ihren Familien und Freuden. Eine noch schöne Adventszeit und ein glückliches 2017. Bleiben sie alle gesund und auf ein hoffentlich gutes neues Jahr.