ThoughtWorks Technology Radar

Die neuen Makrotrends in der Technologiebranche [Gastbeitrag]
Keine Kommentare

Zweimal im Jahr veröffentlicht ThoughtWorks seinen Technology Radar – eine Analyse der wichtigsten Technologien und Trends. Ein globales Experten-Team, das Technology Advisory Board, erstellt den Report, der die Erfahrung unserer Berater aus zahlreichen Projekten weltweit zusammenfasst. Der Technology Radar ist ein Wegweiser für Unternehmen und Entwickler, um technologische Trends in ihrer Bedeutung für die Entwicklung der IT-Branche zu bewerten.

Im Tech Radar erscheinen alle Technologien, die wir als wichtig einstufen, auf einer Grafik als Punkte. Diese sind in vier Quadranten zusammengefasst: Techniken, Plattformen, Tools sowie Sprachen und Frameworks. Jede Technologie ordnen wir außerdem entsprechend ihrer Marktreife und Bedeutung in einen von vier Ringen ein:

  1. Adopt: Die Technologien in diesem Ring sind ausgereift und in der Praxis erprobt. Bei passendem Kontext und Anwendungsfall können wir diese Technologien uneingeschränkt empfehlen.
  2. Trial: Mit diesen Technologien machen wir bereits viele positive Erfahrungen und setzen sie ohne Vorbehalte in Projekten ein.
  3. Assess: Diese Technologien sollte man im Auge behalten. Sie werden von uns bereits in einigen Projekten erfolgreich eingesetzt, dabei jedoch ständig neu evaluiert.
  4. Hold: In diesen Ring sind Technologien eingestuft, die wir entweder für noch nicht ausgereift halten oder bei denen wir generell von einer Verwendung abraten.

Bei der Erstellung des Radars stehen einzelne Technologien im Vordergrund. In der Regel fügen sich diese jedoch in mehrere größere Themen, die in der Zeit der Veröffentlichung besonders im Markt auffallen. Im aktuellen Technology Radar haben wir fünf Hauptthemen identifiziert:

  1. Conversational UI und Sprachverarbeitung
  2. Intelligence as a Service
  3. Developer Experience
  4. Zunahme an Plattformen
  5. Allgegenwärtiges Python

Im Folgenden erläutern wir, warum wir gerade diese Trends für zukunftsweisend halten. In welchem Kontext stehen sie in Bezug auf Softwareentwicklung und erfolgreiche Geschäftsmodelle? Und für welche zukünftigen Entwicklungen von Produkten und Services können sie als Katalysatoren dienen?

Platform Thinking für kürzere Time-to-Value

In den vergangenen zehn Jahren ist die Cloud faktisch zum Infrastrukturstandard geworden, unabhängig davon, ob die zugrundeliegende Struktur öffentlich (AWS, Azure, GCP) oder privat (basierend auf Cloud Foundry, OpenShift, Kubernetes) ist. Die Cloud bietet an sich mehr Flexibilität und der Wechsel von „Snowflake“-Servern zu Infrastructure as Code erhöht sowohl die Geschwindigkeit bei Releases als auch die Betriebssicherheit. Allerdings bietet die Cloud Organisationen nicht nur neue Möglichkeiten zur Bereitstellung von Infrastruktur, sondern sie beginnt auch, ihr komplettes Wettbewerbsethos zu beeinflussen. Der Aufstieg von Plattformen entwickelt sich zu einem wichtigen neuen Trend.

Historisch gesehen haben IT-Organisationen mit dem Anwachsen von Bestandssystemen langsamer Wert schaffen können: Das Gewicht bestehender Systeme steht der Bereitstellung neuer Funktionen entgegen. Heute aber haben die umsatzstärksten Organisationen – die „Netflixe“ der Welt – einen Weg gefunden, sich gegen diesen Trend zu stemmen. Mit dem Ausbau ihrer Technologie stellen sie schneller neue Funktionen und Systeme bereit.

Ihr Geheimnis liegt im sogenannten Platform Thinking. Dabei werden bewusst nützliche Funktionen in wiederverwendbaren „Plattform“-Komponenten zusammengefasst, die im Self-Service zur Verfügung stehen. Die Erweiterung der Technologie- und Geschäftsplattform um neue Eigenschaften ermöglicht es der Organisation, die Time-to-Value zu beschleunigen.

Developer Experience: Entwicklerproduktivität als Erfolgsfaktor

Ein zweiter Trend, der in unserem Radar beleuchtet wird, ist Developer Experience als neues Unterscheidungsmerkmal. Dieser Trend ist nicht komplett neu – meine Kollegin Rachel Laycock sprach bereits 2015 über das Thema „The empowered Technologist„. Aber in einer Zeit, in der wir uns einer Zukunft gegenübersehen, in der Gesellschaft, Geschäftswelt und Technologie untrennbar miteinander verknüpft sind, ist es wichtiger denn je, mit der besten Technologie und den besten Leuten zu arbeiten. Das Silicon Valley hat Unternehmen die unermüdliche Konzentration auf Produkte und Kundenerfahrung gelehrt. Dies beinhaltet auch, Entwickler als Kunden zu behandeln. Deshalb werden Entwicklungstools, APIs und Plattformen zunehmend im Hinblick auf ihre Fähigkeit beurteilt, die reibungslose Arbeit von Entwicklern zu ermöglichen und ihre Autonomie zu steigern.

Wir haben in früheren Tech Radars von oberflächlichen Versuchen, eine Private Cloud zu bauen, abgeraten (Superficial Private Cloud), weil solche die Nutzerteams weder zur Autonomie befähigten noch dabei unterstützten, Software in Produktion zu bringen. Die Branche beginnt zu verstehen, dass Entwickler die Kunden für private Clouds, Dienste von Drittanbietern und APIs sind. Developer Experience ist zu einem wichtigen Differenzierungsmerkmal geworden. Wenn ein Produkt – sei es ein Produkt, das intern in einer Organisation bereitgestellt wird, oder ein „echtes“ für den öffentlichen Vertrieb bestimmtes Produkt – keinen Anklang bei Entwicklern findet, ist dies ein maßgebliches Signal dafür, dass dieses Produkt verbesserungswürdig ist.

Wirft man einen Blick auf den aktuellen Stand der Software-Architektur wird deutlich, welche erheblichen Auswirkungen Microservices auf Enterprise-Systeme gehabt haben. Fast alle unsere Kunden wollen Microservices einsetzen; das Interessante dabei ist, dass sich daraus sowohl organisatorische als auch technische Implikationen ergeben.

Heutzutage ist zu beobachten, dass zahlreiche Top IT-Experten aus dem Silicon Valley ihren Weg in traditionellere Organisationen finden, wo sie später ihre Teams gemäß dem „Amazon-IT-Modell“ neu organisieren. Amazon bereitete den Weg für das Modell der „Two Pizza Teams“, d. h. die Teams sind in der Regel nur so groß, dass sie mit zwei (großen, amerikanischen) Pizzen satt zu bekommen sind. Bei diesen Teams handelt es sich um eigenständige Teams, die verantwortlich sind für die Steuerung einer einzigen Geschäftskennzahl. Das Wichtige an diesem Modell ist nicht die Größe der Teams, sondern ihre Eigenständigkeit, ihre Vorgehensweise gemäß dem Grundsatz „You build it, you run it“ und die Art und Weise, wie sie mit anderen Teams interagieren.

Diese Erkenntnis führt zu Techniken wie „APIs as a Product“ und das Behandeln anderer Bereiche der Organisation als wären sie (interne) Kunden. Die Kombination aus Microservices und Self-Service-Plattformen ist grundsätzlich erforderlich, um diese Verhaltensweisen und Interaktionsstile umzusetzen. Deshalb steigt ihre Beliebtheit stetig an.

Spracherkennung im Fokus der künstlichen Intelligenz

Conversational User Interfaces (Conversational UIs) und natürliche Sprachverarbeitung stehen auf der Interessenliste vieler Organisationen. Amazon Echo ist das meist zitierte Beispiel in diesem Zusammenhang. Beim Design eines bildschirmlosen Geräts sah sich Amazon gezwungen, sich intensiv mit dem Aufbau eines Conversational UI auseinanderzusetzen. Die sprachliche Interaktion mit einem Gerät oder Chatbot ist nicht mehr nur Diensten wie Alexa, Siri oder Cortana vorbehalten. Diese Funktionen stehen mithilfe von APIs und Drittanbieter-Diensten auch Geräteherstellern und Unternehmensentwicklern zur Verfügung.

Die wit.ai– und api.ai-Frameworks unterstützen Entwickler bei der Extraktion der Intention aus Sprache. Die Technik von Conversationally Aware APIs (Programmierschnittstellen, die speziell als Basis für ein konversationsorientiertes UI gestaltet werden) vereinfacht zudem die Arbeit von Conversational UIs noch weiter. Diese Conversational UIs werden durch maschinelles Lernen (ML) ermöglicht, das unserer Meinung nach aufgrund des Zusammenspiels verschiedener Einflussfaktoren immer mehr eingesetzt wird. Erstens führte der Hype um Big Data in den vergangenen Jahren dazu, dass Organisationen große Datenmengen angesammelt haben, da es hieß, diese seien von Nutzen und sollten gespeichert bleiben. Daten sind ganz klar der Lebensnerv für nutzbringendes maschinelles Lernen. Zweitens hat sich die Rechenleistung erhöht, insbesondere im Zuge von Cloud und GPU-Computing. Apple entwickelt CPU-/GPU-Chips für seine iPhones, die speziell der Beschleunigung des Maschinellen Lernens dienen. Schließlich wurden die Einstiegshürden dramatisch gesenkt. Zum Beispiel brachte Google die Open-Source-Software TensorFlow heraus. Damit kann jeder nun ein ML-Modell entwickeln, dieses anhand der Cloud oder einer GPU-Farm trainieren und auf einem Smartphone schnell ausführen.

Intelligence as a Service

Das Konzept der künstlichen Intelligenz hat eine Vielzahl an leistungsfähigen Plattformen für Intelligence as a Service hervorgebracht. Die meisten großen Plattform-Anbieter, wie zum Beispiel Google, IBM und Microsoft, bieten mittlerweile intelligente Algorithmen als Teil ihrer Plattform an. Diese verfügen über Funktionen, die von Sprachverarbeitung und dem Verstehen natürlicher Sprache über Bilderkennung bis hin zu Deep Learning reichen.

Diese datengesteuerten Dienste funktionieren am besten, wenn sie auf große Datenvolumina aus mehr als einer Quelle zurückgreifen können. Deshalb erzielt der Bilderkennungsdienst von Amazon möglicherweise bessere Ergebnisse als ein ähnliches Angebot von einem kleineren Anbieter. Die Bilderkennung bei Amazon ist überraschend gut – sie erkennt mittlerweile zum Beispiel spezifische Hunderassen, nicht nur einen Hund. Der große Vorteil von Intelligence as a Service besteht darin, dass ehrgeizigere Lösungen entwickelt werden können, gerade von den Entwicklern der Branchenriesen. Die Lösungen bringen natürlich auch mögliche Nachteile mit sich, beispielsweise im Hinblick auf Datensicherheit und Lock-in bei Drittanbietern.

Vorhersagen über maschinelles Lernen (ML) und künstliche Intelligenz (KI) lassen sich nur schwer anstellen. Allein im vergangenen Jahr waren wir Zeuge, wie ML-Systeme Spiele wie Go und Texas Hold’em Poker meisterten, von denen angenommen wurde, dass sie menschliche List erfordern. Die Entwicklung von Deep-Learning-Systemen verbessert sich rasant und bei einer Vielzahl der besten Techniken entwickeln sich die ML-Systeme im Prinzip selbst. Bei sogenannten generativen gegnerischen Netzwerken werden zwei Deep-Learning-Systeme gegeneinander ausgespielt, um ihre Gesamtleistung zu erhöhen. In einem beeindruckenden Beispiel können diese Systeme hochauflösende Bilder aus Textbeschreibungen generieren. Dabei läuft ein Bilderkennungsalgorithmus quasi „rückwärts“ ab.

Ausblick: Ein intelligenter Ansatz in der Entwicklung

Aus der schnellen Entwicklung des Maschinenlernens ergibt sich die naheliegende Frage: Wie wirkt sich maschinelles Lernen auf die Arbeit der Entwickler aus, die stets genaue Anweisungen für Computer verfasst haben, obgleich auf einer immer höheren Abstraktionsebene? Darüber lässt sich wohl noch keine Aussage treffen. Es gab zahlreiche Versuche mit Programmiersprachen, bei denen menschliche Entwickler einfach ihre Intention erklärt haben und ein ML-/KI-System Implementierungscode ausgespuckt hat. Es wird aber noch ein langer Weg sein, bis wir diese Techniken in der Praxis einsetzen können.

Interessant sind jedoch andere technologische Probleme, die zwar komplex sind, aber durch ML besser gelöst werden können. Ein Beispiel ist die Überprüfung der Architektur für eine bestehende Suite von Enterprise-Systemen. Dabei finden mit Wahrscheinlichkeit hochkomplexe Interaktionen zwischen Systemen und Komponenten sowie komplexe Datenzugriffsmuster statt. Die Instrumentierung dieser Systeme und die anschließende Anwendung von ML dürfte zu Erkenntnissen führen, auf deren Grundlage wir die Unternehmensarchitektur verbessern könnten – „das Strangler Pattern hier anwenden“, „dieses unzuverlässige alte System ausrangieren“, „diese scheinbar miteinander in Verbindung stehenden Systeme kombinieren“ und so weiter.

Wir sind gespannt, wie sich die Trends bis zum nächsten Technology Radar entwickeln werden und welche neuen Trends der Radar im November 2017 aufzeigen wird.

Unsere Redaktion empfiehlt:

Relevante Beiträge

X
- Gib Deinen Standort ein -
- or -