Natalie Beyer auf der ML Conference 2019

Interpretierbares Machine Learning: SHAP-Werte anwenden
Keine Kommentare

Machine Learning und das Black-Box-Problem; Wie kommen selbstlernende Systeme zu ihren Vorhersagen? Auf diese Frage geht Natalie Beyer in diesem Talk von der ML Conference ein und zeigt an einem Beispiel eine mögliche Lösung auf.

Dieser Talk von der ML Conference 2019 basiert auf einem realen datenwissenschaftlichen Projekt der Speakerin Natalie Beyer. Der verwendete Datensatz wird eine Zielspalte haben, die vorhergesagt werden soll. Mit der Verwendung mehrerer Pakete wie SHAP wird es möglich sein, die Vorhersagen zu interpretieren. SHAP-Werte geben uns die Möglichkeit zu sehen, welche Merkmale der Algorithmus für die Vorhersage berücksichtigt hat. Dieses sehr nützliche Paket von Scott Lundberg zeichnet auch aufschlussreiche Visualisierungen auf. Als datenwissenschaftliche Beraterin hat die Speakerin die Erfahrung gemacht, dass dieser Ansatz sehr nützlich ist, da einige ihrer Kunden auf der Suche nach einer Machine-Learning-Lösung waren, die interpretierbare Ergebnisse liefert.

ML Conference 2021

Efficient Transformers

Christoph Henkelmann, DIVISIO

Enhancing Page Visits by Topic Prediction

Dieter Jordens, Continuum Consulting NV

Machine Learning on Edge using TensorFlow

Håkan Silfvernagel, Miles AS

ML & Python Summit 2021

Die Speakerin: Natalie Beyer

Natalie is a Co-Founder of the data science consultancy LAVRIO.solutions. The company is building customized and precise solutions for their clients’ needs. With her background in psychology and statistics she is responsible for model building, data exploration and visualization of results.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments
X
- Gib Deinen Standort ein -
- or -