Interpretierbares Machine Learning: SHAP-Werte anwenden
Machine Learning und das Black-Box-Problem; Wie kommen selbstlernende Systeme zu ihren Vorhersagen? Auf diese Frage geht Natalie Beyer in diesem Talk von der ML Conference ein und zeigt an einem Beispiel eine mögliche Lösung auf.