Samsung ordena proibição de IA generativa para funcionários devido a preocupações de segurança

Ícone de tempo de leitura 3 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Samsung não quer que sua equipe confie completamente em IA generativa como ChatGPT quando se trata de informações confidenciais da empresa. Como tal, a empresa sul-coreana agora está proibindo o uso de serviços generativos de IA em sua força de trabalho.

“Pedimos que você siga diligentemente nossa diretriz de segurança e a falha em fazê-lo pode resultar em violação ou comprometimento das informações da empresa, resultando em ação disciplinar, incluindo rescisão do contrato de trabalho”, disse a Samsung em um memorando revisado por Bloomberg News.

De acordo com o relatório, a empresa realizou uma pesquisa em abril, mostrando que 65% dos entrevistados acreditavam que o uso de ferramentas de IA no local de trabalho poderia se traduzir em possíveis problemas de segurança. Curiosamente, a Samsung também descobriu no mês passado que alguns de seus engenheiros “acidentalmente” vazaram o código-fonte interno quando o carregaram no ChatGPT em abril.

O relatório compartilhou que a Samsung divulgou o memorando enfatizando as preocupações de segurança. Ela teme que as informações confidenciais enviadas às ferramentas de IA sejam armazenadas em servidores externos, o que está fora do controle da Samsung e pode levar a vazamentos públicos. 

O memorando alertou os funcionários de uma divisão específica sobre o uso de ferramentas generativas de IA e os incentivou a seguir as políticas da empresa, ressaltando que aqueles que se recusarem a fazê-lo podem enfrentar punições. Apesar do aviso, a Samsung observou no memorando para a equipe que seria temporário, compartilhando intenções de “criar um ambiente seguro” para o uso de tecnologias como o ChatGPT.

“A sede está revisando as medidas de segurança para criar um ambiente seguro para usar com segurança a IA generativa para aumentar a produtividade e a eficiência dos funcionários”, diz o memorando. “No entanto, até que essas medidas sejam preparadas, estamos restringindo temporariamente o uso de IA generativa”. 

A Samsung juntou-se a outras empresas (por exemplo, JPMorgan Chase & Co., Bank of America Corp. e Citigroup Inc.) que já proibiram o uso de IA generativa em seus respectivos locais devido às mesmas preocupações. A mudança dessas empresas, no entanto, não é uma surpresa - especialmente depois de um bug recente do ChatGPT que expôs temporariamente o histórico de bate-papo e possivelmente informações de pagamento. E dado que o OpenAI pode acessar as informações alimentadas em sua criação do ChatGPT, as empresas têm todo o direito de temer o uso de tal ferramenta de IA por seus funcionários.

Apesar disso, a OpenAI sempre alertou seus usuários para não compartilhar “nenhuma informação confidencial”. Como explicado pela própria OpenAI, “pode usar o Conteúdo que você nos fornece para melhorar nossos Serviços, por exemplo, para treinar os modelos que alimentam o ChatGPT”. É importante observar, no entanto, que o ChatGPT já possui um recurso de modo anônimo. No entanto, ainda pode não ser uma garantia suficiente para as empresas, especialmente porque um simples problema de segurança pode significar um grande desastre comercial.

Mais sobre os tópicos: ai, ChatGPT, IA generativa, samsung

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *