Entfernen Sie Copilot Designer aus dem Web: Ein Microsoft-Ingenieur, nachdem er enthüllt hat, dass es äußerst unangemessene Inhalte produzieren kann

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Mehr erfahren

Wichtige Hinweise

  • Microsoft-Ingenieur meldet den KI-Bildgenerator Copilot Designer wegen der Produktion schädlicher Inhalte wie gewalttätiger Bilder und Urheberrechtsverletzungen.
  • Der Ingenieur fordert Microsoft dringend auf, das Tool zu entfernen, Warnungen hinzuzufügen und die Altersfreigabe aus Sicherheitsgründen zu ändern.
  • Der Vorfall wirft ein Schlaglicht auf umfassendere Probleme eines möglichen Missbrauchs und ethische Überlegungen im Zusammenhang mit der generativen KI-Technologie.

Ein Microsoft-Ingenieur hat Bedenken hinsichtlich des KI-Bildgenerators des Unternehmens, Copilot Designer, geäußert. Er behauptet, dass dadurch schädliche und unangemessene Inhalte entstehen könnten.

Shane Jones, leitender Software-Engineering-Manager bei Microsoft, sagte, er habe herausgefunden, dass das Tool gewalttätige, sexuelle und voreingenommene Bilder erzeugen könne. Es erinnert mich an die Taylor-Swift-Saga, was angeblich von einem Microsoft-Produkt durchgeführt wurde.

Er berichtete intern über seine Ergebnisse, war mit der Reaktion jedoch nicht zufrieden, was dazu führte, dass er seine Probleme an die Öffentlichkeit brachte.

Jones, der Schwachstellen durch „Red-Teaming“ (Testen auf Schwachstellen) identifizierte, berichtete von verstörenden Bildern, darunter:

  • Bilder, die Dämonen und Monster darstellen, sowie Begriffe zum Abtreibungsrecht.
  • Bilder von Frauen in sexualisierten Szenarien inmitten von Autounfällen.
  • Bilder, die Teenager auf Partys mit Drogen und Waffen zeigen.
  • Bilder mit Disney-Figuren in möglicherweise urheberrechtlich geschützten und anstößigen Situationen, darunter Szenen, die Gewalt im Nahen Osten darstellen, und Figuren, die mit militärischen Bildern in Verbindung gebracht werden.

Jones ruft Microsoft dazu auf, sofort Maßnahmen zu ergreifen. Dazu gehört der große Schritt, Copilot Designer vom Markt zu nehmen, bis Sicherheitsmaßnahmen umgesetzt sind. Er fügte Angaben zu den Einschränkungen des Tools hinzu und änderte die App-Bewertung, um zu verdeutlichen, dass sie nicht für alle Altersgruppen geeignet ist. Oder irgendjemand. 

Microsoft hat noch nicht auf alle konkreten Behauptungen von Jones reagiert. Ein Sprecher sagte jedoch, das Unternehmen sei entschlossen, alle Bedenken der Mitarbeiter auszuräumen, und schätze ihre Bemühungen beim Testen seiner Technologie.

Wenn es um Sicherheitsumgehungen oder Bedenken geht, die potenzielle Auswirkungen auf unsere Dienstleistungen oder unsere Partner haben könnten, haben wir robuste interne Meldekanäle eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben. Wir ermutigen unsere Mitarbeiter, diese zu nutzen, damit wir sie angemessen validieren und testen können Anliegen.

Die Besorgnis über generative KI und das Missbrauchspotenzial nimmt sogar zu Der Bildgestalter von Gemini hat vor Kurzem Wachbilder gemacht, was dazu führte, dass Google für eine Weile die Produktion menschlicher Bilder einstellte.

Dies ist eine sich entwickelnde Geschichte und wir werden weiterhin Updates bereitstellen, sobald diese verfügbar sind.

Mehr HIER.

Benutzerforum

0 Nachrichten