Interview mit Jacob Tiedemann

Daten versus Bauchgefühl: „Der Wechsel von Meinung zu Fakten ist jederzeit möglich“
1 Kommentar

Ohne Frage können Metriken dabei helfen, Entscheidungen zu treffen oder auch den möglichen Erfolg einer Verbesserung zu messen. Doch wie stellen wir fest, welche Metriken wichtig sind? Im Interview zur DevOpsCon 2019 sprachen wir mit Jacob Tiedemann von ThoughtWorks darüber, anhand welcher Kriterien sich die richtigen Metriken aussuchen lassen und welche Tools den Einsatz optimieren können.

Fakten statt Meinung

Entwickler: Hallo Jacob! In Deiner Session auf der DevOpsCon Facts over opinions: how Data beats Gut Feeling rätst Du unter anderem dazu, Entscheidungen nicht aufgrund des Bauchgefühls zu treffen, sondern sich auf Daten bzw. Metriken zu stützen. Welche Metriken sind im DevOps-Umfeld die wichtigsten?

Jacob Tiedemann: Ganz weit oben sollte der Nutzen für den Kunden stehen. Den Nutzen, also die Auswirkungen bei der Zielgruppe, zu messen, ist gar nicht so einfach. Wichtige Metriken sind daher nachweisliche Indikatoren für den Kundennutzen und damit den Unternehmenserfolg (Tun wir das Richtige?). Den Nachweis für solche Indikatoren hat Nicole Forsgren in ihrem Buch „Accelerate“ eindrucksvoll erbracht: Lead Time, Deployment Frequency, Change Failure Rate und Mean-time-to-Restore.

Nachdem wir uns für Metriken entschieden haben, ist der erste Schritt: Daten sammeln und zwar mit Disziplin.

Diese zu messen ist nicht unbedingt einfacher. Persönlich wähle ich daher zu Beginn einen pragmatischen Ansatz für das Team und betrachte den Wertschöpfungsprozess aus Sicht der Engpasstheorie. Ich messe balanciert, dass wir Dinge richtig tun (Qualität), diese schnell tun (Lead time), viel tun (Durchsatz) und dass wir Dinge konsistent und verlässlich tun (Flow debt).

Entwickler: Welches ist der erste Schritt, den man gehen muss, wenn man Geschäftsentscheidungen basierend auf Daten-Quellen treffen möchte?

Jacob Tiedemann: Nachdem wir uns für Metriken entschieden haben, ist der erste Schritt: Daten sammeln und zwar mit Disziplin.

Heutzutage ist es einfach, an Daten von unseren Kunden, Produkten und Prozessen zu kommen. Doch es ist unabdingbar für die Akzeptanz von Metriken und datenbasierten Entscheidungen, dass diese Daten auch eine hohe Qualität haben. Die Statistik lehrt uns Merkmale für Datenqualität, wie beispielsweise Genauigkeit und Vollständigkeit, auf die wir bei der Datensammlung achten sollten. Auch, wenn dies abschreckend wirken mag, können wir hier auf einen riesigen Erfahrungs- und Wissensschatz zurückgreifen.

IT Security Summit 2019

Sichere Logins sind doch ganz einfach!

mit Arne Blankerts (thePHP.cc)

Hands-on workshop – Hansel & Gretel do TLS

mit Marcus Bointon (Synchromedia Limited)

 

Nach meiner Erfahrung hilft ein Team gerne bei der Steigerung der Datenqualität, sobald es den Mehrwert für sich erkannt hat. Das Erfolgsgefühl, wenn sich in den Daten, die eigenen Verbesserungen abzeichnen, ist motivierend.

Entwickler: Die Menge an verfügbaren Daten kann überwältigend sein. Woher weiß man, welche Daten die wichtigen sind bzw. ist ein bestimmter Datensatz besser als ein anderer?

Jacob Tiedemann: Eine datenbasierte Entscheidung unterliegt der Annahme, dass die Vergangenheit die Zukunft voraussagt. Ich prüfe daher vor jeder Entscheidung, welche Annahmen damit einhergehen: Bleibt die Verfügbarkeit meines Teams konstant? Bleibt die Verteilung der Arbeitstypen gleich? Ist das nächste Feature vergleichbar mit den vorherigen beiden?

Eine Entscheidung sollte daher immer auf Daten basieren und nicht von ihnen getrieben werden. Qualitative Erkenntnisse sollten immer Teil der Entscheidung sein. Ansonsten könnten wir diese wohl auch automatisieren…

Entwickler: Welche Tools/Methoden helfen außerdem bei der Entscheidungsfindung?

Der Wechsel vom Bauchgefühl zu Fakten ist jederzeit möglich

Jacob Tiedemann: Für die Analyse der Daten und der Darstellung der Metriken im Zeitverlauf greife ich auf Tools wie Excel oder Jupyter Notebook zurück.

Besonders gerne nutze ich die Methode der Monte-Carlo-Simulation, um eine Prognose für einen zukünftigen Zeitraum zu erstellen. Eine Monte-Carlo-Simulation ist einfach zu verstehen und schnell durchgeführt. Die Verbindung von einem prognostizierten Scope mit Wahrscheinlichkeiten helfen bei Diskussionen und Entscheidungen ungemein. Der Fokus wechselt hierdurch von Verhandlungen („Ich will alles zum günstigsten Preis… und zwar jetzt.“) auf eine gemeinsame Priorisierung nach Risiko und Nutzen.

Entwickler: Was sollten die Leute aus deiner Session auf der DevOpsCon mitnehmen?

Jacob Tiedemann: Der Wechsel vom Bauchgefühl zu Fakten ist jederzeit möglich. Auch, wenn dieser Disziplin und Verantwortungsbewusstsein erfordert, kann er dem ganzen Team helfen. Mit meinem Erfahrungsbericht möchte ich zu diesem Wechsel inspirieren und den Fokus auf die Wertschöpfung erleichtern.

Entwickler: Vielen Dank für das Interview!

Jacob Tiedemann ist Senior Consultant und Business Analyst bei ThoughtWorks und ist überzeugt: Nutzen entsteht durch Nutzung. Als Entwickler eines Hamburger Start-ups und Berater für Großunternehmen hat er technische und kulturelle Barrieren zwischen Business, Entwicklung und Betrieb überwunden. Seine Leidenschaft ist die interdisziplinäre Entwicklung von Produkten und Lösungen, die einen nachhaltigen Wert für Kunden schaffen – immer mit einem Fokus auf Lean Principles und Agile Practices.

[marketing_widget_area 4]

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

1 Kommentar auf "Daten versus Bauchgefühl: „Der Wechsel von Meinung zu Fakten ist jederzeit möglich“"

avatar
400
  Subscribe  
Benachrichtige mich zu:
Anita W.
Gast

Datenbasierte Entscheidungen liefern dem Unternehmen einen strategischen Vorteil auch gegenüber dem Wettbewerb. Gewisse unternehmenskritische Kennzahlen sollten stets abgeleitet und überwacht werden, frühzeitig handeln und Strategien entwickeln ist heutztage die „Mutter der Porzellankiste“.

X
- Gib Deinen Standort ein -
- or -