سامسونگ به دلیل نگرانی های امنیتی دستور ممنوعیت تولید هوش مصنوعی را برای کارمندان صادر می کند
3 دقیقه خواندن
منتشر شده در
صفحه افشای ما را بخوانید تا بدانید چگونه می توانید به MSPoweruser کمک کنید تا تیم تحریریه را حفظ کند ادامه مطلب
سامسونگ نمیخواهد کارکنانش کاملاً به هوش مصنوعی مولد اعتماد کنند GPT چت وقتی صحبت از اطلاعات حساس شرکت می شود. به این ترتیب، شرکت کره جنوبی اکنون استفاده از خدمات هوش مصنوعی مولد را در نیروی کار خود ممنوع کرده است.
سامسونگ در یادداشتی که توسط سامسونگ بررسی شده است، گفت: «ما از شما میخواهیم که با جدیت به دستورالعملهای امنیتی ما پایبند باشید و عدم رعایت آن ممکن است منجر به نقض یا به خطر افتادن اطلاعات شرکت شود که منجر به اقدامات انضباطی تا پایان کار شود.» خبری بلومبرگ.
بر اساس این گزارش، این شرکت در ماه آوریل یک نظرسنجی انجام داد که نشان داد 65 درصد از پاسخ دهندگان معتقد بودند که استفاده از ابزارهای هوش مصنوعی در محیط کار می تواند منجر به مشکلات امنیتی احتمالی شود. جالب اینجاست که سامسونگ همچنین در ماه گذشته متوجه شد که برخی از مهندسان آن به طور تصادفی کد منبع داخلی را هنگام آپلود آن در ChatGPT در ماه آوریل فاش کردند.
در این گزارش به اشتراک گذاشته شده است که سامسونگ این یادداشت را منتشر کرده و بر نگرانیهای امنیتی تاکید کرده است. این نگران است که اطلاعات محرمانه ارسال شده به ابزارهای هوش مصنوعی در سرورهای خارجی ذخیره شود، که خارج از کنترل سامسونگ است و می تواند منجر به درز عمومی شود.
این یادداشت به کارکنان یک بخش خاص در مورد استفاده از ابزارهای مولد هوش مصنوعی هشدار داد و آنها را به پیروی از سیاستهای شرکت تشویق کرد و تأکید کرد که افرادی که از انجام این کار امتناع کنند ممکن است با مجازات روبرو شوند. علیرغم این هشدار، سامسونگ در یادداشت به کارکنان اشاره کرد که موقتی خواهد بود و قصد دارد "ایجاد یک محیط امن" برای استفاده از فناوری هایی مانند ChatGPT را به اشتراک بگذارد.
در این یادداشت آمده است: "HQ در حال بررسی اقدامات امنیتی برای ایجاد محیطی امن برای استفاده ایمن از هوش مصنوعی مولد برای افزایش بهره وری و کارایی کارکنان است." با این حال، تا زمانی که این اقدامات آماده نشود، استفاده از هوش مصنوعی مولد را به طور موقت محدود می کنیم.
سامسونگ به سایر شرکتها پیوست (به عنوان مثال، JPMorgan Chase & Co.، Bank of America Corp. و Citigroup Inc.) که قبلاً استفاده از هوش مصنوعی مولد را در مکانهای مربوطه خود به دلیل همین نگرانیها ممنوع کردهاند. با این حال، حرکت چنین شرکتهایی تعجبآور نیست – بهویژه پس از یک باگ اخیر ChatGPT که به طور موقت تاریخچه چت و احتمالاً اطلاعات پرداخت را افشا کرد. و با توجه به اینکه OpenAI میتواند به اطلاعاتی که برای ایجاد ChatGPT ارائه میشود دسترسی داشته باشد، شرکتها حق دارند از استفاده کارمندان خود از چنین ابزار هوش مصنوعی بترسند.
با وجود این، OpenAI همیشه در هشدار به کاربران خود برای به اشتراک گذاشتن «هیچ اطلاعات حساس» بوده است. مانند توضیح داده شده توسط خود OpenAI، "ممکن است از محتوایی که شما به ما ارائه می دهید برای بهبود خدماتمان استفاده کند، به عنوان مثال برای آموزش مدل هایی که ChatGPT را تقویت می کنند." با این حال، مهم است که توجه داشته باشید که ChatGPT قبلاً یک ویژگی حالت ناشناس دارد. با این حال، ممکن است هنوز اطمینان کافی برای شرکت ها نباشد، به خصوص که یک مسئله امنیتی ساده می تواند فاجعه بزرگ تجاری را به همراه داشته باشد.