Microsoft veröffentlicht ein offenes Framework zur Erkennung von Bedrohungen für ML-Systeme
1 Minute. lesen
Veröffentlicht am
Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter
Maschinelles Lernen (ML) wird heute in verschiedenen Branchen eingesetzt, darunter Finanzen, Gesundheitswesen und Verteidigung. Da die Angriffe auf kommerzielle ML-Systeme zunehmen, ist die Sicherheit von ML-Systemen wirklich wichtig. Tatsächlich wurden in den letzten drei Jahren die ML-Systeme großer Unternehmen wie Google, Amazon, Microsoft und Tesla ausgetrickst, umgangen oder in die Irre geführt. Um Sicherheitsanalysten in die Lage zu versetzen, Bedrohungen für ML-Systeme zu erkennen, darauf zu reagieren und sie zu beheben, hat Microsoft zusammen mit MITRE und Beiträgen von 11 Organisationen, darunter IBM, NVIDIA und Bosch, die Adversarial ML Threat Matrix veröffentlicht, ein branchenorientiertes offenes Framework für Sicherheit Analysten.
Diese Bedrohungsmatrix entstand aus einer Partnerschaft mit 12 industriellen und akademischen Forschungsgruppen mit dem Ziel, Sicherheitsanalysten in die Lage zu versetzen, sich an diesen neuen und bevorstehenden Bedrohungen zu orientieren. Das Framework ist mit einer kuratierten Reihe von Schwachstellen und gegnerischen Verhaltensweisen ausgestattet, die Microsoft und MITRE auf ihre Wirksamkeit gegen Produktions-ML-Systeme überprüft haben. Dieses Framework verwendete ATT&CK als Vorlage, da Sicherheitsanalysten bereits mit der Verwendung dieser Art von Matrix vertraut sind.
Sie können sich die Adversarial ML Threat Matrix ansehen hier.
Quelle: Microsoft