Microsoft brengt een open raamwerk uit om bedreigingen tegen ML-systemen te detecteren

Pictogram voor leestijd 1 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Machine learning van Microsoft

Machine learning van Microsoft

Machine learning (ML) wordt nu gebruikt in verschillende sectoren, waaronder financiën, gezondheidszorg en defensie. Aangezien de aanvallen op commerciële ML-systemen toenemen, is de beveiliging van ML-systemen erg belangrijk. In de afgelopen drie jaar hebben grote bedrijven zoals Google, Amazon, Microsoft en Tesla hun ML-systemen laten misleiden, ontwijken of misleiden. Om beveiligingsanalisten in staat te stellen bedreigingen tegen ML-systemen te detecteren, erop te reageren en deze te verhelpen, hebben Microsoft samen met MITRE en bijdragen van 11 organisaties, waaronder IBM, NVIDIA en Bosch, de Adversarial ML Threat Matrix uitgebracht, een branchegericht open raamwerk voor beveiliging analisten.

Deze bedreigingsmatrix is ​​voortgekomen uit samenwerking met 12 industriële en academische onderzoeksgroepen met als doel beveiligingsanalisten in staat te stellen zich te oriënteren op deze nieuwe en opkomende bedreigingen. Het raamwerk is bezaaid met een samengestelde reeks kwetsbaarheden en gedragingen van kwaadwillenden die Microsoft en MITRE hebben onderzocht om effectief te zijn tegen productie-ML-systemen. Dit raamwerk gebruikte ATT&CK als sjabloon, aangezien beveiligingsanalisten al bekend zijn met het gebruik van dit type matrix.

U kunt de Adversarial ML Threat Matrix bekijken hier.

Bron: Microsoft

Meer over de onderwerpen: machine learning, microsoft, ML

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *