David Glavas von der ML Conference 2019

Typische Angriffe auf ML-Systeme: Wie sicher ist Machine Learning wirklich?
Keine Kommentare

Machine Learning erfreut sich einer ungebrochenen Beliebtheit. Allerdings wird es dadurch auch zum beliebten Angriffsziel: David Glavas zeigt in diesem Talk von der ML Conference, welche typischen Angriffe auf ML-Systeme durchgeführt werden und wie man sich darauf einstellen kann.

Da auf maschinellem Lernen (ML) basierende Ansätze weiterhin großartige Ergebnisse erzielen und ihr Einsatz immer weitverbreiteter ist, wird es immer wichtiger, ihr Verhalten in kontroversen Situationen zu untersuchen. In diesem Talk wirft David Glavas einen Blick auf alles, was ein ML-Entwickler wissen sollte, wenn es um Sicherheitsfragen in ML-Systemen geht. Am Ende der Session werden Sie wissen, was möglich ist und was nicht möglich ist, worüber Sie sich Sorgen machen sollten und worüber Sie sich keine Sorgen machen sollten. Glavas beginnt mit einem allgemeinen Überblick über Sicherheitsfragen in ML-Systemen und konzentriert sich dann auf Schwachstellen zur Testzeit (Adversarial Examples). Der Talk von der ML Conference zeigt, was Adversarial Examples sind, welche negativen Folgen sie haben könnten, und wirft einen Blick auf bekannte Angriffe auf ML-Systeme, darunter ML-Dienste (Google Cloud, AWS), Angriffe auf hochmoderne Gesichtserkennungssysteme, Angriffe auf autonome Fahrzeuge, Angriffe auf Sprachassistenten (Apple Siri, Google Now und Amazon Echo) und mehr.

ML Summit Munich 2020

Market Segmentation in the Era of Big Data

mit Özge Sahin (SkyScry)

Deep Learning mit TensorFlow

Mit Jakob Karalus (Deloitte Consulting)

Der Speaker: David Glavas

David studies computer science at the Technical University of Munich (TUM) where he does research at the IT Security and the Computer Vision chairs. His main research focus is adversarial machine learning, that is the study of security vulnerabilities in machine learning systems. Previously, he worked at Fraunhofer AISEC’s cognitive security department where he focused on securing machine learning models at test time (Adversarial Examples).

Unsere Redaktion empfiehlt:

Relevante Beiträge

Abonnieren
Benachrichtige mich bei
guest
0 Comments
Inline Feedbacks
View all comments
X
- Gib Deinen Standort ein -
- or -