Willkommen im Jetzt

Anforderungen an eine "Next Generation IT"
Kommentare

In den letzten Jahren haben sich in der IT grundlegende Änderungen ergeben. Mittlerweile ist agile Softwareentwicklung dominierend – aber dennoch erreichen viele Unternehmen bei Weitem noch nicht die Ergebnisse, die sie sich von einer agilen Transformation versprechen. Gleichzeitig tauchen vermehrt Unternehmen mit hochgradig innovativer IT auf, die die erwarteten Ergebnisse scheinbar mühelos erreichen und um Größenordnungen leistungsfähiger als eine klassische IT erscheinen. Was machen diese Unternehmen anders und besser? Wie muss sich eine IT heute aufstellen, um den Anforderungen gerecht zu werden? Dieser Artikel ergründet die Prinzipien für eine „Next Generation IT“, die die Grundlage für die nächste Transformation der IT definieren.

Die größte vorstellbare Ineffizienz in der IT ist die Entwicklung von Systemen und Software, die keinen Wert haben, weil sie nicht das tun, was das Geschäft benötigt. Diese Ineffizienz gilt es zu vermeiden – aber wie?

Warum die „Next Generation of IT“? Dieser Text ist aus einer Diskussion hervorgegangen, die seit Sommer 2013 von Eberhard Wolff, Uwe Friedrichsen, Sebastian Meyen (Verlagsleiter Software & Support) und Mirko Schrempp (Redakteur Business Technology) geführt wird. Der Auslöser ist die Beobachtung, dass sich der Markt verändert und gerade junge, IT-getriebene Unternehmen traditionelle Konzepte und Unternehmen in den Schatten stellen. Gespräche mit vielen anderen Experten aus unterschiedlichsten Bereichen der IT über diese Tendenz ergaben, dass diese Einschätzung übereinstimmend geteilt wird und sich in vielfältigen Entwicklungen zeigt. Daher war erstes Ergebnis dieser Diskussion die Prinzipien der Next Generation of IT, die in diesem Artikel vorgestellt werden. Ein weiteres Ergebnis ist, dass diese Gedanken dem Business Technology Magazin als roter Faden dienen und sie auf den Business Technology Days in Keynotes und Vorträgen öffentlich zur Diskussion gestellt werden. Weitere Informationen zu den BT-Days finden Sie unter http://btdays.de/2014se/. Bis heute gelten hier übrigens noch die vergünstigten Frühbuchertermine.

Agilität, IT und Ineffizienz

An dieser Stelle wird regelmäßig Agilität als Lösung für das Problem genannt. Das ist aber nur die halbe Wahrheit. Agilität stellt in den üblichen Ausprägungen nur einen Mechanismus zur Verfügung, mit dem Anforderungen schnell und effizient in Software übertragen werden. Was aber überhaupt durch die Implementierung der Software erreicht werden soll, wird in dem Prozess nicht betrachtet. Ein agiles Projekt dient nur dazu, Stories oder Features zu implementieren. Welche Stories oder Features sinnvoll und notwendig sind, muss von außen in den Prozess hineingetragen werden. Die üblichen Kriterien wie Business Value setzen voraus, dass die Sinnhaftigkeit der jeweiligen Anforderung bereits verstanden und bewertet ist. Diese Bewertung ist im Falle von Scrum z. B. die Verantwortung des Product Owners. Fällt er die falschen Entscheidungen, werden sinnlose Features implementiert. In dem Fall ist IT bei aller Umsetzungseffizienz letztlich völlig ineffizient. Da helfen auch die üblichen Lean-Ansätze nicht, weil diese nur versuchen, Prozessineffizienzen zu beheben, aber keine Produktineffizienzen betrachten. Diese Form der Ineffizienz muss auf einer anderen Ebene außerhalb der IT adressiert werden. Nun könnten wir uns als IT bequem zurücklehnen und das zu einem Problem anderer Leute erklären. Das ist aber zu kurz gedacht: Um Produktineffizienzen zu beheben, benötigt man schnelles und häufiges Kundenfeedback, auf dessen Basis man die Wirksamkeit eines neuen Produktfeatures bewerten kann. Denn den tatsächlichen Wert eines neuen Produktfeatures kann man letztlich nur daran messen, wie die Kunden darauf reagieren. Anders ausgedrückt muss die agile Transformation außerhalb der IT eines Unternehmens fortgesetzt werden. Insbesondere benötigt man die schnellen und häufigen Feedbackschleifen. Führt man den Gedanken etwas weiter, kommt man zum Prinzip der „kontrollierten Experimente“: Anstatt ein neues Feature vollumfänglich umzusetzen und erst dann durch die Kundenreaktionen zu lernen, ob die eigenen Annahmen bezüglich des Geschäftswerts richtig waren, wählt man einen anderen, wissenschaftlicheren Ansatz. Man überlegt sich ein neues Feature und trifft messbare Annahmen bzgl. des damit verbundenen Geschäftswerts. Wichtig dabei ist, dass bereits vor der Implementierung klar sein sollte, wie der Geschäftswert gemessen werden kann – beispielsweise durch eine bestimmte Anzahl Nutzer, die das Feature haben sollte, einen Umsatzzuwachs oder Ähnliches. Dadurch wird es möglich, den Geschäftswert eine Features zu quantifizieren und den Geschäftserfolg zu messen. Dann implementiert man das Feature, idealerweise sogar in mehreren Varianten auf möglichst leichtgewichtige Weise – gerade gut genug, um die Kundenreaktionen verlässlich messen und bewerten zu können und validiert, inwieweit die Erwartungen und die Messwerte zueinander passen. „Implementieren“ bedeutet übrigens nicht zwangsläufig das Schreiben von Software: Beispielsweise kann das Feature zunächst beworben werden. Gibt es dann nicht genügend positives Feedback – beispielsweise nicht genügend Klicks auf eine Website – kann stattdessen ein populäreres Feature implementiert werden. Basierend auf den Erkenntnissen aus dem Experiment können dann besser fundierte Entscheidungen getroffen werden, die die Grundlage für die nächsten Experimente sind. Was hat das jetzt mit IT zu tun? Nun, eine ganze Menge. Die IT muss ein solches Vorgehen möglichst optimal unterstützen. Um zu verstehen, was das bedeutet, ist es sinnvoll, einmal ein paar Schritte zurückzutreten. Dann können wir einige prinzipielle Beobachtungen machen, die einen grundsätzlichen Wandel der IT bestärken (Abb. 1):

1. Der Siegeszug von Lean im ursprünglichen Sinne im gesamten Enterprise: Lean orientiert sich daran, den Wert eines Produkts aus Sicht des Kunden zu definieren. Dann werden beim Prozess zur Herstellung des Produkts alle Schritte eliminiert, die nicht zur Wertschöpfung aus Kundensicht beitragen. Schließlich wird der Prozess optimiert, um einen gleichmäßigen Fluss zu erreichen. Kontrollierte Experimente sind in diesem Kontext ein Werkzeug, auf fundierte Weise die richtigen Entscheidungen zu treffen. Für die IT bedeutet das eine Verschärfung der Bedingungen: Während agile Projekte derzeit am Ende einer Iteration oft nur die Features vorstellen und demonstrieren, müssen sie dann tatsächlich ausgeliefert und vom Kunden ausprobiert werden, um die erforderlichen Messungen und Validierungen durchführen zu können. Ist dies gegeben, können die beschriebenen Prinzipien wie dargestellt auf das gesamte Unternehmen und die Produktinnovation im Unternehmen angewendet werden. 2. Die IT als Nervensystem des Unternehmens: Die IT-Abhängigkeit der Unternehmen wird immer größer. Es gibt kaum noch ein Unternehmen, das ohne ständige IT-Verfügbarkeit überlebensfähig ist. Das hat nicht nur Auswirkungen auf den IT-Betrieb, sondern auch auf die Softwareentwicklung, denn ohne eine Abbildung in den IT-Systemen lassen sich keine neuen Produkte oder Dienstleistungen auf den Markt und an den Mann bzw. die Frau bringen. 3. Die Welt und die Geschäftsmodelle werden immer mehr durch IT beeinflusst: Waren es bis jetzt noch die Bereiche Musik, Medien und Handeln, bei denen Digitalisierung und Internet die IT zum entscheidenden Faktor gemacht haben und zahlreichen etablierten Marktteilnehmern erheblich Schwierigkeiten beschert haben, könnten als Nächstes Bereiche wie Banken oder Versicherungen an der Reihe sein – immerhin leben auch diese Unternehmen primär von Informationen. Bei den Auswirkungen der IT auf die herstellende Industrie sind wir ebenfalls erst am Anfang. Außerdem hat mittlerweile praktisch jeder ständig eine IT-Infrastruktur bei sich – das Smartphone. Durch die mobile Revolution durchdringt IT immer mehr den Alltag und wird damit auch wichtiger für die Geschäftsmodelle. Aus der ersten Beobachtung ergibt sich die Möglichkeit, neue Produkte viel schneller und zielgerichteter an den Markt zu bringen und so einen Wettbewerbsvorteil zu erreichen. Aber auch ohne den Vorteil durch ein besseres Time-to-Market kann der tatsächliche Erfolg eines Softwareprojekts so an konkreten Ergebnissen aus Geschäftssicht verifiziert werden. Aus der zweiten Beobachtung kann man folgern, dass eine effiziente IT immer wichtiger für den Geschäftserfolg wird. Schnelle und effiziente Prozesse sind also nicht nur aus Sicht der IT sinnvoll, sondern können tatsächlich der gesamten Firma helfen. Die dritte Beobachtung zeigt schließlich, dass IT selbst immer mehr zum Produkt wird – und nicht nur eine Hilfsfunktion hat. Wer die bessere IT hat, hat also auch das bessere Produkt.

Abb. 1: Gründe für den IT-Wandel

Aufmacherbild: Smart boy in virtual glasses with memory card. Copy space. von Shutterstock / Urheberrecht: p_ponomareva

[ header = Seite 2: Die „neuen Wilden“ ]

Die „neuen Wilden“

Während für viele klassische Unternehmen diese Ideen völlig neu sind, gibt es eine Reihe von Firmen, die genau diese Ansätze nutzen. Als Folge erscheint ihre IT um Größenordnungen leistungsfähiger als die übliche Enterprise-IT. Aber wer sind denn diese „neuen Wilden“ und was machen sie anders, dass sie so viel leistungsfähiger und innovativer sind? Die meisten dieser Unternehmen haben ein internetbasiertes Geschäftsmodell, wodurch sich von Anfang an ein anderes Verständnis für die essenziellen Erfolgsfaktoren ihrer IT ergeben hat. Galt in der Vergangenheit die Umsetzung komplexer Enterprise-Systeme als die hohe Kunst der IT, ist es heute die Umsetzung webbasierter Anwendungen und Geschäftsmodelle. Die Ursprünge dieser Bewegung sind Unternehmen wie Amazon oder Google, die von Anfang an solche innovativen Ansätze in ihren primären IT-Systemen genutzt haben und dann auch ihre Enterprise-Systeme gemäß dieser Ideen umgesetzt haben. Insbesondere haben diese Unternehmen frühzeitig erkannt, dass eine innovative und leistungsfähige IT ein essenzieller Schlüssel zum Freisetzen der Innovationskraft des Unternehmens ist. Ist das für ein Unternehmen wie Google, das rein internetbasierte Dienstleistungen anbietet, noch naheliegend, so ist dies für ein Unternehmen wie z. B. Amazon nicht unbedingt selbstverständlich. Schließlich hat man lange gedacht, dass es im Handel um Logistik und Kosteneffizienz geht – warum sollte dann ein Handelsunternehmen so viel Geld in die IT stecken und so die Kosten in die Höhe treiben? Aber gerade durch die Leistungsfähigkeit ihrer IT können diese Unternehmen in Bezug auf ihre Geschäftsmodelle ganz anders agieren. Da die IT extrem schnell und leistungsfähig ist, können sie wesentlich schneller neue Produkte und Dienstleistungen erproben und verbessern, verschiedene Varianten ausprobieren und die Reaktionen der Kunden darauf messen, um so die bestmöglichen Entscheidungen in kürzest möglicher Zeit zu treffen. Oder wie Jeff Sussna es in seiner Keynote auf der W-JAX 2013 dargestellt hat: Es werden auf Dauer die überleben, die in der Lage sind, den OODA-Loop schneller zu durchlaufen als die Mitbewerber. OODA steht für Observe, Orient, Decide, Act – also beobachten, orientieren, entscheiden und dann handeln (Abb. 2). Wenn es möglich ist, schnell ein IT-System in die Hände der Kunden zu geben und das Verhalten zu messen, kann die Firma auf diesen Ergebnissen aufbauen und den nächsten Verbesserungsschritt planen. So ist es möglich, die Marktgegebenheiten besser zu verstehen und letztendlich Produkte erfolgreicher am Markt zu positionieren.

Abb. 2: Der OODA-Loop

In vielen Bereichen – beispielsweise Medien oder Versandhandel – konkurrieren diese neuartigen Unternehmen sehr erfolgreich mit den etablierten Unternehmen, die sich durch den Wettbewerbsdruck in diese Richtung zu wandeln beginnen. Andere Branchen werden sicher folgen – gerade Branchen, deren Leistungen zu großen Teilen virtuell sind – wie zum Beispiel auch Banken oder Versicherungen. Auch wenn diese Branchen sich noch keinem Wettbewerbsdruck durch Start-ups ausgesetzt fühlen, stellt sich die Frage, was passiert, wenn „neue Wilde“ diese Branchen für sich entdecken. Am Anfang haben die Wettbewerber über Amazon nur gelacht. Heute lachen sie nicht mehr, so sie denn noch existieren.

Warum jetzt?

Der Grund, dass wir den Wandel gerade jetzt sehen, ist die Verfügbarkeit neuer Technologien (Abb. 3). Zu diesen Technologien zählen: • Cloud bietet die Möglichkeit, viel schneller Ressourcen wie Server, aber auch schlüsselfertige Datenbanken oder E-Mail-Accounts einzurichten. Die Ressourcen können dabei im eigenen Rechenzentrum zur Verfügung gestellt werden – oder außerhalb in der Public-Cloud. • Big Data steht für die Analyse nicht nur großer Datenmengen, sondern auch vielfältig strukturierter Daten und Daten, die häufig auch mit hoher Geschwindigkeit anfallen. • NoSQL-Datenbanken sind eine Antwort auf die Herausforderungen von Big Data und sind außerdem sehr flexibel, sodass Änderungen in den Datenstrukturen sehr leicht implementiert werden können. • Continuous Delivery steht für eine weitgehende Automatisierung der Deployment-Prozesse. Dadurch kann Software nicht nur schneller, sondern auch zuverlässiger in Produktion gebracht werden. Teilweise von den „neuen Wilden“ noch selbst entwickelt, sind mittlerweile viele Lösungen für diese Basistechnologien verfügbar – und zwar oft als Open Source. So ist es heute für jede IT-Abteilung möglich, wie die IT eines internetbasierten Unternehmens zu arbeiten – und sie wird es bei dem Konkurrenzdruck wahrscheinlich auch tun müssen. Gleichzeitig sind organisatorische Ansätze wie DevOps oder Lean Startup beschrieben worden – und können nun ebenfalls von jedem nachvollzogen und genutzt werden. DevOps steht (vereinfacht dargestellt) für das Zusammenwachsen von Development (Entwicklung) und Operations (Betrieb). Lean Startup stellt den Geschäftserfolg in den Mittelpunkt: Das Ergebnis eines Projekts soll nicht mehr Software sein, sondern eine Aussage über das Marktpotenzial einer Lösung. Das kann die Einführung eines neuen Features sein, dessen Erfolg am Markt dann aber gemessen werden muss – oder einfach nur ein Webbanner, das für ein Produkt wirbt und dessen Erfolg dann in der Anzahl Klicks auf das Banner gemessen wird. Letztlich ermöglicht die Verfügbarkeit fast aller relevanten IT-Bausteine als Cloud-Angebote, dass neue Unternehmen ihre IT nahezu zum Nulltarif aufbauen kann. Eine einfache Backoffice- und Entwicklungsinfrastruktur kann man sich heute für einen knapp 3-stelligen Eurobetrag pro Monat zusammenstellen und nutzen.

Abb. 3: Neue Technologien erlauben andere Organisationsformen

Damit sinkt die Eintrittsschwelle für neue Unternehmen drastisch im Vergleich zu früheren Zeiten, in denen Unternehmen sich erst einmal für viel Geld jede Menge Hardware und Softwarelizenzen kaufen mussten, bevor man auch nur den ersten Handschlag tun konnte. Entsprechend ist es heute deutlich leichter, eine neue Geschäftsidee auszuprobieren. Das kann man auch an der Vielzahl neuer Unternehmen beobachten, die mit innovativen Ideen in die Märkte drängen oder auch an der Vervielfältigung der Anzahl von Serial Entrepreneurs, die regelmäßig neue Unternehmen gründen und zum Erfolg führen oder wieder einstampfen – das unternehmerische Risiko ist ja wesentlich geringer als früher. Zu der Verfügbarkeit neuer Technologien zur Umsetzung der IT kommt noch ein zusätzlicher technischer Treiber für eine größere Bedeutung der IT: Durch mobile Geräte wie Smartphones oder Tablets werden IT-Angebote nicht mehr nur am Arbeitsplatz und zu Hause genutzt, sondern tatsächlich praktisch immer und überall. Dadurch verbringen Menschen noch mehr Zeit mit IT, der Einfluss von IT wird noch größer und IT wird auch zunehmend wichtiger als Differenzierungsfaktor.

[ header = Seite 3: Prinzipien der Next Generation IT ]

Prinzipien der Next Generation IT

Bislang wurde gesagt, dass die „neuen Wilden“ über eine deutlich leistungsfähigere IT als die meisten traditionellen Unternehmen verfügen, was ihnen einen Wettbewerbsvorteil verschafft, weil sie den OODA-Loop wesentlich schneller und häufiger durchlaufen können als der Wettbewerb. Aber was macht denn die neue „Next Generation IT“ aus? Nach welchen anderen Prinzipien funktioniert sie? Es gibt eine ganze Reihe Aspekte, die man hier beobachten kann. Doch ausgehend von Jeff Sussnas 21st Century IT Manifesto, das eine Reihe interessanter Ansatzpunkte liefert und der Beobachtung, was diese Unternehmen in Bezug auf ihre Geschäftsmodelle und ihre IT anders machen, lassen sich die folgenden Kernprinzipien für die Organisation festhalten:

Innovationsmaximierung statt Kostenminimierung: Klassisch wird IT vor allem als Kostenfaktor begriffen. Wenn IT sich aber zu einem Differentiator im Wettbewerb entwickelt hat, dürfen die Kosten nicht mehr im Mittelpunkt stehen, sondern die Innovationskraft der IT und die Möglichkeit, Änderungen schnell und effektiv umzusetzen. Das hat weitreichende Konsequenzen auf die Organisation und die Incentivierung der IT-Organisation. Kontrollierte Experimente statt Fehlervermeidung um jeden Preis: Mit Lean Startup soll der Erfolg von Lösungen direkt am Markt ausprobiert – und nicht nur einfach prognostiziert werden. Dazu sind Experimente im wissenschaftlichen Sinne notwendig – sie werden also genutzt, um bestimmte Thesen zu überprüfen. Da der Ausgang dieser Experimente nicht klar ist, können sie sich im Nachhinein als Fehler herausstellen. Außerdem ist es nicht notwendig, eine perfekte Lösung an den Markt zu bringen. Wenn sie wirklich erfolgreich ist, kann sie immer noch entsprechend weiter optimiert werden. Dezentrale, eigenverantwortliche Teams statt zentrale Steuerung und Goal Sheets: Für DevOps sind kombinierte Teams mit Entwicklern und Betriebsexperten notwendig. Ebenso müssen für der Lean-Startup-Gedanken Vertrieb, Marketing usw. integriert werden, um die Experimente durchführen und dann auch bewerten zu können. Dazu sind eine enge Kollaboration aller Beteiligten und Ergebnisorientierung notwendig – und kein isoliertes Abarbeiten von Prozessschritten mit Tätigkeitsüberwachung. Ebenso wird so eine ganzheitliche Verantwortung über den gesamten Wertschöpfungszyklus etabliert – statt Spezialistengruppen mit eingeschränktem Blickwinkel. Neben der Kollaboration müssen die Mitarbeiter auch eine ausgeprägte Expertise mitbringen. Die Teams bestehen eher aus wenigen exzellenten Mitgliedern als aus einer Vielzahl von Mitarbeitern. Flexible Anpassung an die Situation statt statischer Planung: Im Kern bedeutet der OODA-Loop, dass häufige kleine Änderungen ausgeliefert werden statt einiger sehr großer Releases. So kann nachkorrigiert werden – ganz im Sinne von Lean Startup. Ebenso wird der Grundgedanke von Lean umgesetzt – nämlich den Waste zu reduzieren. Software oder Softwareänderungen, die noch nicht in Produktion sind, sind im Lean-Sinne Waste, da sie noch keinen Wert für den Kunden erzeugen. Also sollten Releases eher weniger Software in Produktion bringen und dafür öfter – ganz im Sinne von Continuous Delivery. So ist eine kontinuierliche Verbesserung möglich, statt an den Best Practices festzuhalten. Daraus kann ein Fokus auf Optimierung der Durchlaufzeiten und des Durchsatzes statt auf vollständige Fehlerfreiheit abgeleitet werden – schließlich können Fehler durch Nachkorrigieren entfernt werden. Akzeptieren von Komplexität auf allen Ebenen: Komplexe Systeme verhalten sich nicht linear – eine kleine Änderung kann erhebliche Konsequenzen haben. Das gilt auch für alle IT-Vorhaben einer Firma in einem dynamischen Geschäftsumfeld. In solchen Umfeldern ist adaptive Steuerung notwendig – streng hierarchische Command-und-Control-Vorgehensweisen versagen in solchen Umfeldern, wie aus der Systemtheorie hinlänglich bekannt ist. Insbesondere muss man zur erfolgreichen Lösung solcher komplexen Aufgabenstellungen die selbstständige Kollaboration und Interaktion der Beteiligten nutzen und darauf achten, diese so wenig wie möglich einzuschränken. Ein solcher Ansatz führt zu veränderten Führungs- und Governance-Modellen, die nicht mehr über starre Prozesse und Regeln, sondern über Erwartungshaltungen und (möglichst wenige) Rahmenbedingungen (Constraints) steuern.

Daraus ergeben sich auf technischer Seite als Konsequenz ebenfalls einige Prinzipien: Diversität und leichtgewichtige Tools statt Monokultur und integrierte Lösungen: Wenn Teams eigenverantwortlich sind, müssen sie sich auch ihre Tools auswählen dürfen. Das führt dazu, dass in einem Unternehmen eine breite Palette von Tools genutzt wird. Große, strategische Entscheidungen und integrierte Lösungen verlieren so ihre Bedeutung. Dadurch wird es auch schwierig, große komplexe Tools einzuführen, sodass leichtgewichtige Tools den Markt dominieren werden. Konsequente Automatisierung von Routinetätigkeiten: Der notwendige Durchsatz bei gleichzeitiger Sicherstellung der erforderlichen Qualität kann nur realisiert werden, wenn verstärkt automatisiert wird, weil die manuelle Abarbeitung insbesondere von Routinetätigkeiten zu lange dauert und zu fehlerträchtig ist. Auch hier greifen Prinzipien von Lean und entsprechend sind hier vor allem Werkzeuge aus dem Continuous-Delivery-Umfeld zu nennen. Nutzung moderner Architekturansätze: Die Softwarearchitektur wird durch Cloud, Continuous Delivery und Mobile beeinflusst. So kann Skalierung einfach durch das dynamische Hinzuschalten von neuen Ressourcen aus der Cloud gelöst werden. Die Komponenten werden kleiner, weil so das Deployment einfacher wird. Es kann jeweils eine einzelne kleine Komponente ausgetauscht werden, statt eine große komplexe Software neu zu deployen. Elastizität statt à priori Kapazitätsplanung: Klassisch werden für eine Anwendung die benötigten Ressourcen auf Basis eines Mengengerüsts und der Performanceanforderungen festgelegt. Das ist zum einen von den Kosten her ineffizient, da viele der Ressourcen nur für Lastspitzen vorgehalten werden. Außerdem kann so nur schwer skaliert werden, wenn die Last größer wird – es müssen zunächst neue Ressourcen beschafft werden. Wenn hingegen im Sinne der Elastizität eine skalierbare Infrastruktur genutzt wird, kann auf neue Anforderungen viel besser reagiert werden. Widerstandsfähigkeit (Resilience) statt Stabilität: Statt sich beispielsweise darauf zu verlassen, dass die Infrastruktur schon nicht ausfallen wird, ist es viel besser, die Software so zu strukturieren, dass sie den Ausfall der Infrastruktur kompensieren kann. Dazu kann eine bestimmte Redundanz in der Software implementiert werden – oder es können beispielsweise beim Ausfall eines Systems die Leistung der Software entsprechend eingeschränkt werden oder beispielsweise bestimmte Vorgabewerte genutzt werden („Graceful Degredation Of Service“). Die entstehenden Systeme fallen dann wesentlich weniger aus.

Fazit

Die IT ist im Wandel begriffen. Neue Unternehmen, die die Leistungsfähigkeit ihrer IT als einen essenziellen Wettbewerbsfaktor erkannt haben und damit deutlich schneller agieren können, machen den traditionellen Unternehmen häufig das Leben schwer. Betrachtet man diese neuen Unternehmen genauer, stellt man fest, dass sie ihre IT nach ganz anderen Prinzipien betreiben, als dies in traditionellen Unternehmen üblich ist. Um die Leistungsfähigkeit dieser Unternehmen erreichen zu können, muss man seine IT auch gemäß dieser Prinzipien ausrichten, was ein essenzielles Umdenken zur Folge hat – mit weitreichenden Folgen bis in die Prozesse, die Organisation, die Technologien und das Selbstverständnis eines jeden Beteiligten. Natürlich ist dies alles nur ein notwendiges, aber kein hinreichendes Kriterium, denn auch mit der leistungsfähigsten IT der Welt bewegt man nichts, wenn man auf der Geschäftsseite keine Ideen hat, die in kurzen Feedbackschleifen von der IT in die Systeme und damit den Markt gebracht werden.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -