Samsung ordnet generatives KI-Verbot für Mitarbeiter wegen Sicherheitsbedenken an

Symbol für die Lesezeit 3 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Samsung möchte nicht, dass seine Mitarbeiter der generativen KI vollständig vertrauen ChatGPT wenn es um sensible Informationen des Unternehmens geht. Daher verbietet das südkoreanische Unternehmen nun die Nutzung generativer KI-Dienste innerhalb seiner Belegschaft.

„Wir bitten Sie, sich gewissenhaft an unsere Sicherheitsrichtlinie zu halten, und die Nichtbeachtung kann zu einer Verletzung oder Kompromittierung von Unternehmensinformationen führen, was zu Disziplinarmaßnahmen bis hin zur Kündigung des Arbeitsverhältnisses führen kann“, sagte Samsung in einem von überprüften Memo Bloomberg News.

Dem Bericht zufolge führte das Unternehmen im April eine Umfrage durch, aus der hervorgeht, dass 65 % der Befragten glaubten, dass die Verwendung von KI-Tools am Arbeitsplatz zu möglichen Sicherheitsproblemen führen könnte. Interessanterweise entdeckte Samsung letzten Monat auch, dass einige seiner Ingenieure „versehentlich“ internen Quellcode durchsickern ließen, als sie ihn im April auf ChatGPT hochluden.

Der Bericht teilte mit, dass Samsung das Memo veröffentlicht habe, in dem Sicherheitsbedenken betont würden. Es befürchtet, dass vertrauliche Informationen, die an KI-Tools übermittelt werden, auf externen Servern gespeichert werden, was außerhalb der Kontrolle von Samsung liegt und zu öffentlichen Lecks führen könnte. 

Das Memo warnte die Mitarbeiter einer bestimmten Abteilung vor dem Einsatz generativer KI-Tools und ermutigte sie, die Unternehmensrichtlinien zu befolgen, und betonte, dass diejenigen, die sich weigern, bestraft werden könnten. Trotz der Warnung stellte Samsung in dem Memo an die Mitarbeiter fest, dass es sich um eine vorübergehende Absicht handeln würde, um „eine sichere Umgebung“ für die Verwendung von Technologien wie ChatGPT zu schaffen.

„Das Hauptquartier überprüft Sicherheitsmaßnahmen, um eine sichere Umgebung für den sicheren Einsatz generativer KI zu schaffen, um die Produktivität und Effizienz der Mitarbeiter zu steigern“, heißt es in dem Memo. „Bis diese Maßnahmen vorbereitet sind, schränken wir jedoch den Einsatz generativer KI vorübergehend ein.“ 

Samsung schloss sich anderen Unternehmen (z. B. JPMorgan Chase & Co., Bank of America Corp. und Citigroup Inc.) an, die aufgrund der gleichen Bedenken bereits den Einsatz von generativer KI an ihren jeweiligen Orten verboten haben. Der Wechsel von solchen Unternehmen ist dennoch keine Überraschung – insbesondere nach einem kürzlich aufgetretenen ChatGPT-Fehler, der vorübergehend den Chatverlauf und möglicherweise Zahlungsinformationen offengelegt hat. Und da OpenAI auf die Informationen zugreifen könnte, die in seine ChatGPT-Kreation eingespeist werden, haben Unternehmen das Recht, die Verwendung eines solchen KI-Tools durch ihre Mitarbeiter zu fürchten.

Trotzdem hat OpenAI seine Benutzer immer lautstark davor gewarnt, „keine sensiblen Informationen“ weiterzugeben. Als erklärt von OpenAI selbst, kann es „Inhalte verwenden, die Sie uns zur Verfügung stellen, um unsere Dienste zu verbessern, beispielsweise um die Modelle zu trainieren, die ChatGPT antreiben.“ Es ist jedoch wichtig zu beachten, dass ChatGPT bereits über eine Inkognito-Modus-Funktion verfügt. Dennoch ist es für Unternehmen möglicherweise immer noch keine ausreichende Sicherheit, zumal ein einfaches Sicherheitsproblem eine große geschäftliche Katastrophe bedeuten kann.

Mehr zu den Themen: ai, ChatGPT, generative KI, Samsung

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *