出于安全考虑,三星下令禁止员工使用生成人工智能

阅读时间图标 3分钟读


读者帮助支持 MSpoweruser。如果您通过我们的链接购买,我们可能会获得佣金。 工具提示图标

阅读我们的披露页面,了解如何帮助 MSPoweruser 维持编辑团队 查看更多

Samsung 不希望其员工完全信任生成式 AI,例如 ChatGPT 当涉及到公司的敏感信息时。 因此,这家韩国公司现在禁止在其员工队伍中使用生成式人工智能服务。

“我们要求你认真遵守我们的安全指南,否则可能会导致公司信息泄露或泄露,导致纪律处分,甚至包括终止雇佣关系,”三星在一份备忘录中表示。 彭博新闻社.

据报道,该公司在 65 月份进行了一项调查,显示 XNUMX% 的受访者认为在工作场所使用人工智能工具可能会转化为可能的安全问题。 有趣的是,三星上个月还发现其部分工程师在 XNUMX 月份将内部源代码上传到 ChatGPT 时“不小心”泄露了内部源代码。

报道称,三星发布了强调安全问题的备忘录。 它担心提交给人工智能工具的机密信息存储在外部服务器上,这超出了三星的控制范围,并可能导致公众泄密。 

该备忘录警告特定部门的员工不要使用生成式人工智能工具,并鼓励他们遵守公司政策,并强调拒绝这样做的人可能会面临惩罚。 尽管有警告,三星在给员工的备忘录中指出,这将是暂时的,并分享了为使用 ChatGPT 等技术“创造安全环境”的意图。

备忘录中写道:“总部正在审查安全措施,以创建一个安全的环境,以便安全地使用生成式人工智能来提高员工的生产力和效率。” “但是,在准备好这些措施之前,我们暂时限制生成人工智能的使用。” 

出于同样的担忧,三星加入了其他公司(例如摩根大通、美国银行和花旗集团)的行列,这些公司已经禁止在各自的地方使用生成人工智能。 尽管如此,这些公司的举动并不令人意外——尤其是在最近的 ChatGPT 漏洞暂时暴露了聊天记录和可能的支付信息之后。 鉴于 OpenAI 可以访问输入其 ChatGPT 创建的信息,公司有权担心其员工使用此类 AI 工具。

尽管如此,OpenAI 一直直言不讳地警告其用户不要分享“任何敏感信息”。 作为 解释 通过 OpenAI 本身,它“可以使用您提供给我们的内容来改进我们的服务,例如训练为 ChatGPT 提供动力的模型。” 但是,请务必注意,ChatGPT 已经具有隐身模式功能。 然而,对于公司来说,这可能仍然不足以保证安全,特别是因为一个简单的安全问题可能会引发巨大的商业灾难。

有关主题的更多信息: ai, ChatGPT, 生成式人工智能, 三星

发表评论

您的电邮地址不会被公开。 必填带 *