Daniel Takai Unic AG

Bei kritischen oder sensiblen Systemen höre ich öfter den Satz „Failure is not an option“. Dem kann ich mit ganzem Herzen zustimmen, denn tatsächlich ist ein Versagen keine Option, sondern unvermeidlich!

Es ist einfacher mit einem optimalen Systemzustand zu planen. Aber da Websysteme komplex sind und es immer Störungen geben wird, sollte man pessimistisch sein. Nach Murphys Law wird schief gehen, was schief gehen kann.

Die Resilienz beschreibt, wie gut ein System mit Fehlern umgehen kann. Je mehr Transaktionen ein System unter Störungen erfolgreich verarbeiten kann, desto höher ist seine Resilienz oder Widerstandsfähigkeit. Der Architekt hat also eine sehr schwierige Aufgabe. Auf der einen Seite weiß er, dass die Menge möglicher Störungen unendlich groß ist, aber er weiß auch, dass er noch in diesem Jahrhundert liefern muss, d. h. Zeit und finanzielle Mittel beschränkt sind. Es stellt sich also die Frage, ob man das Vorgehen bei der Fehleranalyse systematisieren kann, um einen bestmöglichen Schutz bei vertretbarem und angemessenem Aufwand sicher zu stellen. Die in diesem Artikel vorgestellten Methoden (Abb. 1) haben die Systematik der Analyse sowie der Verbesserung des Schutzes eines Websystems zum Ziel.

Abb. 1: Prozesse, welche die Resilienz verbessern

Abb. 1: Prozesse, welche die Resilienz verbessern

Ein Faktor Widerstandsfähigkeit eines Websystems zu erhöhen, ist der Schutz vor verteilten Denial-of-Service-Angriffen (DDOS). Die Betriebssysteme und sonstige Software, die heute auf Computern läuft, weisen eine große Anzahl von Sicherheitslücken auf. Dies machen sich neben Regierungen auch kriminelle Organisationen zu nutze, die durch Einbrüche nicht nur an sensible oder persönliche Informationen gelangen, sondern auch an mehr Rechenkapazität und Bandbreite. Ein fremdkontrollierter Rechner heißt Bot (Abkürzung für Robot). Ein Verbund von fremdkontrollierten Rechnern heißt Botnet (Deutsch: Botnetz). Primärer Einsatzzweck von Botnetzen sind verteilte DDOS-Angriffe sowie der Versand von Spam. DDOS-Angriffe werden häufig mit Lösegeldforderungen verbunden: Entweder du zahlst, oder wir machen dein System kaputt. Ein Angriff durch ein Botnetz mit vielen tausend Knoten, kann Millionen an Requests pro Minute auf ein Websystem auslösen und damit seine Kapazität sprengen.

Botnetze wurden zusammen mit dem Internet Relay Chat (IRC) entwickelt, um die Administration der wachsenden Anzahl von Rechnern zu vereinfachen. Der allererste Bot, der ausschließlich für die Administration von IRC-Servern gedacht war, hieß Eggdrop und wurde 1993 von Jeff Fisher entwickelt. Eggdrop ist heute noch im Einsatz. Ein Administrator kann lokal ein Kommando absetzen und dieses wird dann auf allen Servern ausgeführt. Schnell erkannten zwielichtige Personen das kriminelle Potenzial und begannen auf den IRC-Servern eigene Prozesse zu fahren.

Um einen Eindruck von der Gewalt eines solchen Botnetz zu erhalten, lohnt sich ein Blick auf die entdeckten und gesprengten Botnetze der Vergangenheit. 2010 wurde das Mariposa-Botnetz mit 12 Millionen kompromittierten Computern entdeckt. Das in 2011 entdeckte Metulji-Botnetz kontrollierte insgesamt 20 Millionen Rechner. Microsoft hob gemeinsam mit dem Financial Services Information Sharing and Analysis Center (FSISAC) in 2010 das Zeus-Botnetz mit 13 Millionen beteiligten Computern aus. Im März 2013 wurde das Spamhaus-Projekt angegriffen. Dabei erreichten die Angreifer mehr als 300 Gigabit/s.

Die Architektur der Botnetze entwickelte sich seit 1993 ständig weiter, um der Entdeckung zu entgehen und selbst widerstandsfähiger zu werden.

Den vollständigen Artikel lesen Sie in der Ausgabe:

Java Magazin 10.16 - "Security agil verankern"

Alle Infos zum Heft
261507Resilienz, denn Fehler wird es immer geben
X
- Gib Deinen Standort ein -
- or -