Microsoft beschränkt den Zugriff auf einige seiner KI-Dienste

Symbol für die Lesezeit 3 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Künstliche Intelligenz hält die Zukunft der Technologie, aber in den falschen Händen kann sie vielen Ärger bereiten. Aus diesem Grund kündigte Microsoft einige Änderungen in seinem Responsible AI Standard an, wo es eine neue Richtlinie für eingeschränkten Zugriff einführte. In einigen Beiträgen vom 21. Juni sagt das Unternehmen, dass es nun den Zugriff auf einige seiner Dienste mithilfe von KI entfernen und einschränken wird. Diese Richtlinienänderungen betreffen insbesondere den Gesichtserkennungsdienst Azure Face von Microsoft und Custom Neural Voice.

Eine der Funktionen, die von dieser Änderung stark betroffen sein wird, ist die umstrittene Gesichtsanalyse-Technologie, die entwickelt wurde, um auf den emotionalen Zustand einer Person zu schließen und verschiedene menschliche Attribute wie Geschlecht, Alter, Lächeln, Gesichtsbehaarung, Haare und Make-up zu erkennen. Microsoft sagt, dass der Schritt nach einigen Bedenken hinsichtlich des Datenschutzes und dem Mangel an wissenschaftlichem Konsens über die Definition des Begriffs „Emotion“ erfolgte. 

„Wir haben mit internen und externen Forschern zusammengearbeitet, um die Einschränkungen und potenziellen Vorteile dieser Technologie zu verstehen und die Kompromisse zu meistern“, erklärte Sarah Bird, Produktmanagerin der Azure AI Principal Group. „Speziell im Fall der Emotionsklassifizierung haben diese Bemühungen wichtige Fragen zum Datenschutz, zum fehlenden Konsens über eine Definition von „Emotionen“ und zur Unfähigkeit aufgeworfen, die Verbindung zwischen Gesichtsausdruck und emotionalem Zustand über Anwendungsfälle, Regionen und demografische Merkmale hinweg zu verallgemeinern . Der API-Zugriff auf Funktionen, die vertrauliche Attribute vorhersagen, eröffnet auch eine Vielzahl von Möglichkeiten, wie sie missbraucht werden können – einschließlich der Unterwerfung von Menschen in Stereotype, Diskriminierung oder unfaire Denial-of-Services.“

Als solches das Unternehmen angekündigt dass es die Attributerkennungsfunktion bereits am 21. Juni für Neukunden nicht verfügbar gemacht hat, während sie für Bestandskunden am 30. desselben Monats eingestellt wird. Nichtsdestotrotz sagt Microsoft, dass es „anerkennt, dass diese Funktionen wertvoll sein können, wenn sie für eine Reihe von Szenarien mit kontrollierter Barrierefreiheit verwendet werden“. Damit macht es eine Ausnahme, diese Funktionen kontinuierlich anzubieten Anwendungen für Menschen mit Behinderungen, wie Seeing AI.

Andererseits wird Microsoft den Zugriff auf seine Gesichtserkennungsdienste in Azure Face API, Computer Vision und Video Indexer auf diejenigen beschränken, die sich dafür bewerben. Im Rahmen der von Microsoft eingeführten Richtlinie für eingeschränkten Zugriff müssen Kunden die Anwendungsfall- und Kundenberechtigungsanforderungen erfüllen, um Zugriff auf die Vorgänge zu erhalten. Bestehende Kunden haben ein Jahr (bis zum 30. Juni 2023) Zeit, um sich für weitere Gesichtserkennungsdienste zu bewerben und genehmigt zu werden. In der Zwischenzeit bleiben andere Funktionen zur Gesichtserkennung, die zum Erkennen von Unschärfe, Belichtung, Brille, Kopfhaltung, Orientierungspunkten, Rauschen, Okklusion und Gesichtsbegrenzungsrahmen verwendet werden, ohne Anwendung verfügbar. Laut Bird wird dieser neue Prozess Microsoft dabei helfen, „der Verwendung und Bereitstellung von Gesichtserkennung eine zusätzliche Überprüfungsebene hinzuzufügen, um sicherzustellen, dass die Nutzung dieser Dienste mit dem Responsible AI-Standard von Microsoft übereinstimmt und zu einem hochwertigen Nutzen für Endbenutzer und die Gesellschaft beiträgt. ”

Schließlich wird auch die Custom Neural Voice-Funktion von Microsoft einigen Einschränkungen unterliegen, um sie vor möglichem Missbrauch zu schützen. „Aufbauend auf dem, was wir von Custom Neural Voice gelernt haben, werden wir ähnliche Kontrollen auf unsere Gesichtserkennungsdienste anwenden“, schreibt Natasha Crampton, Chief Responsible AI Officer, in einem separaten Artikel Blog-Post. „Nach einer Übergangszeit für bestehende Kunden beschränken wir den Zugriff auf diese Dienste auf verwaltete Kunden und Partner, schränken die Anwendungsfälle auf vordefinierte akzeptable ein und nutzen technische Kontrollen, die in die Dienste integriert sind.“