Samsung nakazuje pracownikom generatywny zakaz sztucznej inteligencji ze względów bezpieczeństwa

Ikona czasu czytania 3 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Samsung nie chce, aby jego pracownicy całkowicie ufali generatywnej sztucznej inteligencji, takiej jak ChatGPT jeśli chodzi o wrażliwe informacje firmy. W związku z tym południowokoreańska firma zakazuje obecnie swoim pracownikom korzystania z generatywnych usług sztucznej inteligencji.

„Prosimy o staranne przestrzeganie naszych wytycznych dotyczących bezpieczeństwa, a ich nieprzestrzeganie może skutkować naruszeniem lub narażeniem na szwank informacji firmowych, co może skutkować wszczęciem postępowania dyscyplinarnego, włącznie z rozwiązaniem stosunku pracy” – napisał Samsung w notatce przejrzanej przez Bloomberg News.

Według raportu firma przeprowadziła w kwietniu ankietę, z której wynika, że ​​65% respondentów uważa, że ​​używanie narzędzi AI w miejscu pracy może przełożyć się na możliwe problemy z bezpieczeństwem. Co ciekawe, Samsung odkrył również w zeszłym miesiącu, że niektórzy z jego inżynierów „przypadkowo” ujawnili wewnętrzny kod źródłowy, gdy przesłali go do ChatGPT w kwietniu.

W raporcie podano, że Samsung opublikował notatkę podkreślającą obawy dotyczące bezpieczeństwa. Obawia się, że poufne informacje przesyłane do narzędzi AI są przechowywane na zewnętrznych serwerach, co jest poza kontrolą Samsunga i może prowadzić do publicznych przecieków. 

Notatka ostrzegała pracowników określonego działu przed używaniem generatywnych narzędzi sztucznej inteligencji i zachęcała ich do przestrzegania zasad firmy, podkreślając, że ci, którzy odmówią, mogą zostać ukarani. Pomimo ostrzeżenia Samsung zauważył w notatce dla personelu, że będzie to tymczasowe, podzielając zamiary „stworzenia bezpiecznego środowiska” do korzystania z technologii takiej jak ChatGPT.

„HQ dokonuje przeglądu środków bezpieczeństwa w celu stworzenia bezpiecznego środowiska do bezpiecznego korzystania z generatywnej sztucznej inteligencji w celu zwiększenia produktywności i wydajności pracowników” – czytamy w notatce. „Jednak do czasu przygotowania tych środków tymczasowo ograniczamy korzystanie z generatywnej sztucznej inteligencji”. 

Samsung dołączył do innych firm (np. JPMorgan Chase & Co., Bank of America Corp. i Citigroup Inc.), które już zakazały stosowania generatywnej sztucznej inteligencji w swoich miejscach z powodu tych samych obaw. Ruch takich firm nie jest jednak zaskoczeniem — zwłaszcza po niedawnym błędzie ChatGPT, który tymczasowo ujawnił historię czatów i prawdopodobnie informacje o płatnościach. A biorąc pod uwagę, że OpenAI może uzyskać dostęp do informacji przekazywanych do jego tworzenia ChatGPT, firmy mają pełne prawo obawiać się, że ich pracownicy będą korzystać z takiego narzędzia AI.

Mimo to OpenAI zawsze głośno ostrzegał swoich użytkowników, aby nie udostępniali „żadnych poufnych informacji”. Jak wyjaśnione przez samą OpenAI, „może wykorzystywać Treści, które nam dostarczasz, do ulepszania naszych Usług, na przykład do trenowania modeli obsługujących ChatGPT”. Należy jednak zauważyć, że ChatGPT ma już funkcję trybu incognito. Jednak może to nie być wystarczające zapewnienie dla firm, zwłaszcza że prosty problem z bezpieczeństwem może oznaczać ogromną katastrofę biznesową.

Więcej na tematy: ai, ChatGPT, generatywna sztuczna inteligencja, samsung

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *