S

de-DE

Sensible Daten aus Machine Learning Modellen extrahieren und wie man sich davor schützen kann

Sprecher: Daniel Etzold
Slot: t.b.a.
Raum: t.b.a.
Daniel Etzold

Inzwischen ist bekannt, dass maschinelles Lernen auf unterschiedliche Arten angegriffen werden kann. Klassifikationssysteme können mit speziell präparierten Eingaben ausgetrickst werden und wie bei Software, können auch in Modelle Hintertüren während des Trainings eingebaut werden.

In diesem Vortrag wird eine weitere Schwachstelle gezeigt, nämlich wie Trainingsdaten aus einem einfachen Machine Learning Modell extrahiert werden können. Je nach Art des trainierten Modells könnte ein Angreifer somit Zugriff auf höchst sensible Daten erhalten. Es wird weiterhin gezeigt, wie man solche Angriffe mit Hilfe von Differential Privacy verhindern kann.