Optimierung zweiter Teil: High Performance Web-Caching

Obwohl die Internet-Anbindungen immer mehr Bandbreite aufweisen, wird diese schnell wieder durch immer mehr Datenvolumen bei Updates und aktiven Inhalten „aufgefressen“. Ein intelligentes Bandbreiten-Management schafft zwar etwas Abhilfe, nur in größeren Umgebungen reicht dies einfach nicht mehr aus, dem stetig steigenden Volumen etwas entgegenzusetzen. Wobei größere Umgebungen schon wieder relativ zu sehen sind. Die Nutzung von Cloud-Diensten im Unternehmen ist schon längst Realität.

Schaut man sich nur die Nutzungsstatistiken der Internet Verbindungen und die dort genutzten Applikationen an, so findet man Dienste wie Facebook, YouTube & Co. sehr weit oben in den Ranglisten. Dazu kommen dann die üblichen Verdächtigen in Sachen Updates, allen voran Adobe mit den Reader und Flash. Gerade in heterogenen Umgebungen sind es nicht nur die Microsoft-Updates, sondern auch MacOS, iOS, Android und die diversen Linux-Distributionen die ihren Anteil an dem Volumen haben.

Interessant ist, dass man selbst mit dem betagte WebProxy Squid eine Ersparnis beim Transfervolumen aus dem Internet von ca. 11-15% erreicht. Dies mag auf dem ersten Blick nicht viel sein, aber in Anbetracht der Tatsache, dass es immer mehr aktive Inhalte sind, ist die Einsparung doch sehr beachtlich. Trotzdem ist dies für große Umgebungen und dem durch Web-Caching erhofften Einsparpotential zu wenig. Vor allen auch deshalb, weil es ja nicht nur um die Reduktion von Volumen geht, sondern auch um das Beschleunigen der Zugriffe. Caching und Bandbreiten-Optimierung sieht der Administrator aber nicht der Anwender. Für ihn ist das „Internet“ und somit die dort liegenden Dienste schnell oder einfach nur langsam.

Da nun das Internet aus der täglichen Arbeit nicht mehr wegzudenken ist, kommt man irgendwann an den Punkt über eine entsprechende Optimierung nachdenken zu müssen. Der erste Schritt ist eine Bandbreiten-Optimierung auf Applikationsebene, gefolgt von normalen Caching der Inhalte. Bei einer entsprechend hohen Benutzerzahl oder durch intensive Nutzung von Web-Diensten ist man auch hier schnell an den Grenzen des Möglichen angelangt. Vor allen dann, wenn die IT so zu sagen der eigene Dienstleister im eigenen Unternehmen oder der Unternehmensgruppe ist und es darum geht bestmögliche Leistung für die Anwender bereitzustellen.

Sind die Grenzen von Squid und Forefront (ehemals ISA Server) erreicht, kommen Produkte von BlueCoat & Co. in die nähere Wahl. Je länger man sich nun mit dem Thema beschäftigt, umso komplexer wird es. Besonders die aktiven Inhalte stellen eine große Herausforderung dar. Statische Inhalte im Cache vorzuhalten ist hier eben nicht das Problem. So etwas geht mit Squid & Co. sehr gut und macht auch in größeren Umgebungen durch Möglichkeiten wie Proxy Farmen und Balancing keine allzu großen Probleme. Nutzt man hier noch am Perimeter eine Fortigate, die in der Lage ist multiple WAN Anbindungen zu bedienen, lassen sich sehr leistungsfähige Szenarien realisieren.

Aber egal wie ausgefeilt diese Szenarien nun sind, das Problem der aktiven Inhalte lösen sie nicht. Hier braucht es Systeme die genau für diese aktiven Inhalte, wie Videos oder andere Mediandaten und auf das Verhalten von CDN’s (Content Delivery Network) hin abgestimmt sind. Auch müssen diese Caches in der Lage sein die Update-Last durch den monatlichen MS Patchday oder Adobe Updates abzufangen. Nicht zu unterschätzen sind auch die automatischen Browser Updates von Chrome und Mozilla, die ebenfalls in Summe zum Volumen ihren Beitrag leisten.

Wie eine Studie, die von der IEEE in Auftrag gegeben wurde, aufzeigt verdoppelt sich alle zwei Jahre das Datenvolumen im Internet. Auf diesem Hintergrund zeigt es sich seinerseits, wie wichtig ein Management und ein optimierter Umgang mit den zur Verfügung stehenden Bandbreiten, respektive dem daraus folgenden möglichen Volumen ist. Das Management von Datenströmen wird zunehmend immer wichtiger und es gilt hier die Kontrolle zu behalten.