Dank Differential Privacy sollen Userdaten geschützt bleiben. Aber hat das nur Vorteile?

Wie Apple Deep Learning und Privacy zusammenbringen will
Kommentare

Die KI-Forschung hat in den letzten Jahren dank Deep Learning gewaltige Fortschritte erzielt. Langsam aber sicher ergeben sich daraus neue, lebensnahe Anwendungsfelder, etwa in der Bildsuche. Ein Feld, in dem sich Google bereits einen Namen gemacht hat. Apple hingegen macht den Eindruck, den Deep-Learning-Goldrausch weitestgehend verschlafen zu haben – doch der Schein trügt. Jetzt sind erste Details bekannt geworden, wie Apple die neue KI-Technologie nutzen möchte. Privacy nimmt eine wichtige Stellung ein.

Getreu seinem Firmenmotto hat Apple sich bei der Adaption von Deep Learning-Technologie seine ganze eigenen, abweichenden Gedanken gemacht. Auf einem Podium, das auf der Worldwide Developers Conference gehalten wurde und jetzt online abrufbar ist (Video / Transkript), erläutern die Apple-Verantwortlichen Craig Federighi und Phil Schiller anhand der Photos-App für iOS 10, wie genau das Unternehmen maschinelles Lernen einsetzen will.

Deep Learning und Devices

Im Gegensatz zu Google Photos, das alle Deep-Learning-Operationen mithilfe der Cloud vollzieht, will Apple solche Vorgänge in seinen Datenzentren durchführen lassen. Dafür werden keine User-Informationen abgefragt, sondern externe Daten verwendet. Das sich daraus ergebende Modell wird dann auf die Endgeräte der Nutzer heruntergeladen. Wie genau der Lernprozess aussieht, hat Apple jedoch nicht konkretisiert.

Entsteht ein neues Foto, wird es automatisch anhand des Modells analysiert und – je nachdem ob es eine Person, ein Haus oder eine Katze darstellt – entsprechend getaggt. Nach Angaben von Federighi, Apples Senior Vice President für Software-Entwicklung, braucht es dafür elf Milliarden Kalkulationen. Das sei bei den modernen GPUs der iOS-Geräte aber kein Problem.

The GPUs on iOS devices these days really cook, so we can get through that essentially instantaneously with the photos.

Die Analyse großer Bibliotheken soll dagegen während des Ladeprozesses des Akkus im Hintergrund stattfinden. Was in jedem Fall bedeutet, dass die Arbeit von jedem einzelnen Gerät selbst gemacht wird – wenn auch auf Basis von Modellen, die in den Datenzentren trainiert wurden. Dies impliziert allerdings bislang, dass verschiedene Geräte ein und desselben Nutzers nicht voneinander profitieren können. Das soll sich in Zukunft aber ändern.

Deep Learning und Privacy

Der Grund für den Umweg über die Devices liegt im Datenschutz begründet, dem sich Apple anscheinend stärker verschreiben möchte. Während Google, wie Todd Hoff erläutert, seine Machine-Learning-Algorithmen u.a. mittels der User-Daten in der Cloud trainiert, versucht Apple, einen Privacy-freundlicheren Weg zu gehen.

Dabei untersagt sich der Konzern jeden unmittelbaren Zugriff auf die in der Cloud gespeicherten Daten und Metadaten – in diesem Fall Fotos plus Tags – der User. Apple kann also die Daten der User nicht lesen, so Federighi. Um dennoch die Software auf dem neuesten Stand halten zu können, soll eine komplizierte mathematische Technik namens Differential Privacy zum Tragen kommen.

Ich werde gar nicht so tun, als ob ich verstünde, wie Differential Privacy funktioniert und verweise stattdessen auf den Wikipedia-Eintrag und den von Todd Hoff empfohlenen Text von Matthew Green. Im Wesentlichen geht es darum, dass es durch statistische Spielereien mathematisch verunmöglicht wird, anonyme User-Daten so zu systematisieren, dass auf die Identität des jeweiligen Nutzers rückgeschlossen werden kann. So kann die KI doch mit aktuellen User-Daten gefüttert werden.

Nachteile von Differential Privacy?

Durch Differntial Privacy will Apple also die Vorteile von Big Data ausnutzen, ohne dies zu Ungunsten der User-Privatsphäre gehen zu lassen. Doch verschließt sich das Unternehmen damit nicht einem Großteil des Potentials, das Machine Learning bietet? Die Individualisierung von Funktionen, wie etwa die Anpassung der Spracherkennung an den einzelnen Nutzer, dürfte jedenfalls nicht länger eine Option sein. Schlimmstenfalls bekommt Siri sogar mentale Probleme, wie Todd Hoff spekuliert:

Siri, for example, would appear to me to have multiple personalities. I interact differently with my phone, my iPad, and my desktop, so if training is per device I would see a different Siri on each device.

Ausblick

Während Google den Brute-Force-Ansatz des maschinellen Lernens verinnerlicht zu haben scheint und es auf alle möglichen Felder anzuwenden versucht, hat Apple sich darauf konzentriert, planvoller vorzugehen. Dazu werden die Endgeräte – also iPhone, Mac und iPad – in den Mittelpunkt gestellt. Es dürfte interessant sein, zu sehen, wie weit diese Philosophie trägt.

Aufmacherbild: Lester Balajadia / Shutterstock.com

Unsere Redaktion empfiehlt:

Relevante Beiträge

Meinungen zu diesem Beitrag

X
- Gib Deinen Standort ein -
- or -