Microsoft beperkt de toegang tot sommige van zijn AI-services

Pictogram voor leestijd 3 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Kunstmatige intelligentie heeft de toekomst van technologie, maar in verkeerde handen kan het voor velen problemen veroorzaken. Daarom heeft Microsoft enkele wijzigingen aangekondigd in zijn Responsible AI Standard, waar het een nieuw Limited Access-beleid heeft geïntroduceerd. In sommige berichten op 21 juni zegt het bedrijf dat het nu de toegang tot sommige van zijn diensten met behulp van AI zal verwijderen en beperken. Deze beleidswijzigingen zijn met name van invloed op de Azure Face-gezichtsherkenningsservice en Custom Neural Voice van Microsoft.

Een van de kenmerken die sterk zal worden beïnvloed door deze verandering, is de controversiële technologie voor gezichtsanalyse die is ontworpen om de emotionele toestand van een persoon af te leiden en verschillende menselijke kenmerken te herkennen, zoals geslacht, leeftijd, glimlach, gezichtshaar, haar en make-up. Microsoft zegt dat de stap kwam na enige bezorgdheid over privacy en het gebrek aan wetenschappelijke consensus over de definitie van het concept 'emotie'. 

"We hebben samengewerkt met interne en externe onderzoekers om de beperkingen en potentiële voordelen van deze technologie te begrijpen en de afwegingen te maken", aldus Sarah Bird, productmanager van Azure AI Principal Group. "In het bijzonder in het geval van emotieclassificatie, riepen deze inspanningen belangrijke vragen op over privacy, het gebrek aan consensus over een definitie van 'emoties' en het onvermogen om het verband tussen gezichtsuitdrukking en emotionele toestand te generaliseren over gebruiksgevallen, regio's en demografie. . API-toegang tot mogelijkheden die gevoelige attributen voorspellen, opent ook een breed scala aan manieren waarop ze kunnen worden misbruikt, waaronder mensen blootstellen aan stereotypering, discriminatie of oneerlijke denial of services.”

Als zodanig is het bedrijf aangekondigd dat het de kenmerkdetectiemogelijkheid op 21 juni al niet meer beschikbaar heeft gemaakt voor nieuwe klanten, terwijl het op de 30e van dezelfde maand zal worden stopgezet voor huidige klanten. Desalniettemin zegt Microsoft dat het "erkent dat deze mogelijkheden waardevol kunnen zijn wanneer ze worden gebruikt voor een reeks gecontroleerde toegankelijkheidsscenario's." Hiermee maakt het een uitzondering om deze mogelijkheden continu aan te bieden in toepassingen ontworpen voor mensen met een handicap, zoals AI zien.

Aan de andere kant zal Microsoft de toegang tot zijn gezichtsherkenningsservices in Azure Face API, Computer Vision en Video Indexer beperken tot degenen die ze aanvragen. Volgens het beperkte toegangsbeleid dat Microsoft heeft geïntroduceerd, moeten klanten voldoen aan de use case en de geschiktheidsvereisten van de klant om toegang te krijgen tot de bewerkingen. Huidige klanten hebben een jaar (tot 30 juni 2023) om zich aan te melden en goedgekeurd te worden voor voortgezette gezichtsherkenningsservices. Ondertussen blijven andere gezichtsdetectiemogelijkheden die worden gebruikt voor het detecteren van onscherpte, belichting, bril, hoofdhouding, oriëntatiepunten, ruis, occlusie en gezichtskader beschikbaar zonder toepassing. Volgens Bird zal dit nieuwe proces Microsoft helpen "een extra controlelaag toe te voegen aan het gebruik en de implementatie van gezichtsherkenning om ervoor te zorgen dat het gebruik van deze diensten in lijn is met Microsoft's Responsible AI Standard en bijdraagt ​​aan hoogwaardige eindgebruikers en maatschappelijke voordelen. ”

Ten slotte zal de functie Custom Neural Voice van Microsoft ook worden geconfronteerd met enkele beperkingen om deze te beschermen tegen mogelijk misbruik. "Voortbouwend op wat we hebben geleerd van Custom Neural Voice, zullen we vergelijkbare controles toepassen op onze gezichtsherkenningsdiensten", schrijft Chief Responsible AI Officer Natasha Crampton in een apart blogpost. "Na een overgangsperiode voor bestaande klanten, beperken we de toegang tot deze services tot beheerde klanten en partners, beperken we de use-cases tot vooraf gedefinieerde acceptabele, en maken we gebruik van technische controles die in de services zijn ingebouwd."