Adversarial Machine Learing – AML
Adversarial Machine Learning ist ein Teilbereich des maschinellen Lernens, der sich mit der Robustheit von Modellen gegenüber absichtlichen Angriffen beschäftigt. Wie reagieren maschinelle Lernmodelle auf manipulierte Daten, die speziell entwickelt wurden, um das Modell in die Irre zu führen oder es zu täuschen.
Insgesamt geht es bei Adversarial Machine Learning darum, die Schwachstellen von Modellen zu identifizieren und Methoden zu entwickeln, um diese Schwachstellen zu schließen und Modelle widerstandsfähiger gegen bösartige Manipulationen zu machen.
Es gibt verschiedene Angriffsarten auf ML Modelle, z.B. White-Box Angriffe (hier hat der Angreifer vollständigen Zugriff auf das Modell), Black-Box Angriffe (hier kann der Angreifer nur Eingaben und Ausgaben sehen, hat aber keinen Zugriff auf das Modell, Evasion Angriffe (Angriffe in Echtzeit) oder auch Poisoning Angriffe (Angriffe bereits auf das Trainingsdatenset).