Natalie Beyer auf der ML Conference 2019

Interpretierbares Machine Learning: SHAP-Werte anwenden
Keine Kommentare

Machine Learning und das Black-Box-Problem; Wie kommen selbstlernende Systeme zu ihren Vorhersagen? Auf diese Frage geht Natalie Beyer in diesem Talk von der ML Conference ein und zeigt an einem Beispiel eine mögliche Lösung auf.

Dieser Talk von der ML Conference 2019 basiert auf einem realen datenwissenschaftlichen Projekt der Speakerin Natalie Beyer. Der verwendete Datensatz wird eine Zielspalte haben, die vorhergesagt werden soll. Mit der Verwendung mehrerer Pakete wie SHAP wird es möglich sein, die Vorhersagen zu interpretieren. SHAP-Werte geben uns die Möglichkeit zu sehen, welche Merkmale der Algorithmus für die Vorhersage berücksichtigt hat. Dieses sehr nützliche Paket von Scott Lundberg zeichnet auch aufschlussreiche Visualisierungen auf. Als datenwissenschaftliche Beraterin hat die Speakerin die Erfahrung gemacht, dass dieser Ansatz sehr nützlich ist, da einige ihrer Kunden auf der Suche nach einer Machine-Learning-Lösung waren, die interpretierbare Ergebnisse liefert.

ML Summit Munich 2020

Market Segmentation in the Era of Big Data

mit Özge Sahin (SkyScry)

Deep Learning mit TensorFlow

Mit Jakob Karalus (Deloitte Consulting)

Die Speakerin: Natalie Beyer

Natalie is a Co-Founder of the data science consultancy LAVRIO.solutions. The company is building customized and precise solutions for their clients’ needs. With her background in psychology and statistics she is responsible for model building, data exploration and visualization of results.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -