Samsung beveelt een generatief AI-verbod voor werknemers vanwege beveiligingsproblemen

Pictogram voor leestijd 3 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Samsung wil niet dat zijn personeel volledig vertrouwt op generatieve AI zoals ChatGPT als het gaat om de gevoelige informatie van het bedrijf. Als zodanig verbiedt het Zuid-Koreaanse bedrijf nu het gebruik van generatieve AI-diensten binnen zijn personeelsbestand.

"We vragen u zich nauwgezet aan onze beveiligingsrichtlijnen te houden en als u dit niet doet, kan dit leiden tot een inbreuk op of compromittering van bedrijfsinformatie, wat kan leiden tot disciplinaire maatregelen tot en met beëindiging van het dienstverband", aldus Samsung in een memo dat is beoordeeld door Bloomberg News.

Volgens het rapport heeft het bedrijf in april een onderzoek uitgevoerd waaruit bleek dat 65% van de respondenten van mening was dat het gebruik van AI-tools op de werkplek zich zou kunnen vertalen in mogelijke beveiligingsproblemen. Interessant is dat Samsung vorige maand ook ontdekte dat sommige van zijn ingenieurs "per ongeluk" interne broncode lekten toen ze deze in april naar ChatGPT uploadden.

Het rapport deelde dat Samsung de memo heeft vrijgegeven waarin de bezorgdheid over de veiligheid wordt benadrukt. Het vreest dat vertrouwelijke informatie die aan AI-tools wordt verstrekt, wordt opgeslagen op externe servers, wat buiten de controle van Samsung ligt en zou kunnen leiden tot openbare lekken. 

De memo waarschuwde het personeel in een specifieke divisie voor het gebruik van generatieve AI-tools en moedigde hen aan om het bedrijfsbeleid te volgen, en onderstreepte dat degenen die dit weigeren, gestraft kunnen worden. Ondanks de waarschuwing merkte Samsung in de memo aan het personeel op dat het tijdelijk zou zijn, waarbij de intenties werden gedeeld om "een veilige omgeving te creëren" voor het gebruik van technologie zoals ChatGPT.

"Het hoofdkantoor herziet beveiligingsmaatregelen om een ​​veilige omgeving te creëren voor veilig gebruik van generatieve AI om de productiviteit en efficiëntie van werknemers te verbeteren", luidt de memo. "Totdat deze maatregelen zijn voorbereid, beperken we echter tijdelijk het gebruik van generatieve AI." 

Samsung sloot zich aan bij andere bedrijven (bijv. JPMorgan Chase & Co., Bank of America Corp. en Citigroup Inc.) die het gebruik van generatieve AI in hun respectievelijke plaatsen al hebben verboden vanwege dezelfde zorgen. De overstap van dergelijke bedrijven is echter geen verrassing, vooral niet na een recente ChatGPT-bug die tijdelijk de chatgeschiedenis en mogelijk betalingsinformatie blootlegde. En gezien het feit dat OpenAI toegang heeft tot de informatie die wordt ingevoerd in de creatie van ChatGPT, hebben bedrijven alle recht om bang te zijn dat hun werknemers een dergelijke AI-tool gebruiken.

Desondanks heeft OpenAI zijn gebruikers altijd gewaarschuwd om geen "gevoelige informatie" te delen. Als uitgelegd door OpenAI zelf, kan het "Content gebruiken die u ons verstrekt om onze Services te verbeteren, bijvoorbeeld om de modellen te trainen die ChatGPT aandrijven." Het is echter belangrijk op te merken dat ChatGPT al een incognitomodus heeft. Toch is het misschien nog steeds geen voldoende garantie voor bedrijven, vooral omdat een eenvoudig beveiligingsprobleem een ​​enorme zakelijke ramp kan betekenen.

Meer over de onderwerpen: ai, ChatGPT, generatieve AI, samsung

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *