Samsung สั่งแบน AI กำเนิดให้กับพนักงานเนื่องจากปัญหาด้านความปลอดภัย

ไอคอนเวลาอ่านหนังสือ 3 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

ซัมซุง ไม่ต้องการให้พนักงานเชื่อถือ AI แบบกำเนิดโดยสิ้นเชิง ChatGPT เมื่อพูดถึงข้อมูลที่ละเอียดอ่อนของบริษัท ด้วยเหตุนี้ บริษัทเกาหลีใต้จึงห้ามการใช้บริการ generative AI ภายในพนักงานของตน

“เราขอให้คุณปฏิบัติตามหลักเกณฑ์ด้านความปลอดภัยของเราอย่างเคร่งครัด และการไม่ปฏิบัติตามอาจส่งผลให้เกิดการละเมิดหรือประนีประนอมข้อมูลของบริษัท ส่งผลให้มีการลงโทษทางวินัยถึงขั้นเลิกจ้าง” Samsung กล่าวในบันทึกที่ได้รับการตรวจสอบโดย ข่าวบลูมเบิร์ก.

ตามรายงาน บริษัทได้ทำการสำรวจในเดือนเมษายน แสดงให้เห็นว่า 65% ของผู้ตอบแบบสอบถามเชื่อว่าการใช้เครื่องมือ AI ภายในที่ทำงานอาจส่งผลให้เกิดปัญหาด้านความปลอดภัยได้ ที่น่าสนใจคือ Samsung ยังค้นพบเมื่อเดือนที่แล้วว่าวิศวกรบางคน “บังเอิญ” ปล่อยซอร์สโค้ดภายในเมื่ออัปโหลดไปยัง ChatGPT ในเดือนเมษายน

รายงานระบุว่า Samsung ได้เผยแพร่บันทึกเน้นย้ำเรื่องความปลอดภัย กลัวว่าข้อมูลที่เป็นความลับที่ส่งไปยังเครื่องมือ AI จะถูกจัดเก็บไว้ในเซิร์ฟเวอร์ภายนอก ซึ่งอยู่นอกเหนือการควบคุมของ Samsung และอาจนำไปสู่การรั่วไหลสู่สาธารณะ 

บันทึกเตือนพนักงานในแผนกหนึ่งเกี่ยวกับการใช้เครื่องมือสร้าง AI และสนับสนุนให้พวกเขาปฏิบัติตามนโยบายของบริษัท โดยเน้นย้ำว่าผู้ที่ปฏิเสธที่จะทำเช่นนั้นอาจถูกลงโทษ แม้จะมีคำเตือน แต่ Samsung ระบุในบันทึกถึงพนักงานว่าจะเป็นเพียงชั่วคราว โดยแบ่งปันความตั้งใจที่จะ "สร้างสภาพแวดล้อมที่ปลอดภัย" สำหรับการใช้เทคโนโลยีเช่น ChatGPT

“สำนักงานใหญ่กำลังทบทวนมาตรการรักษาความปลอดภัยเพื่อสร้างสภาพแวดล้อมที่ปลอดภัยสำหรับการใช้ generative AI อย่างปลอดภัยเพื่อเพิ่มประสิทธิภาพและประสิทธิผลของพนักงาน” บันทึกระบุ “อย่างไรก็ตาม จนกว่าจะมีการเตรียมมาตรการเหล่านี้ เรากำลังจำกัดการใช้ generative AI เป็นการชั่วคราว” 

Samsung ได้เข้าร่วมกับบริษัทอื่นๆ (เช่น JPMorgan Chase & Co., Bank of America Corp. และ Citigroup Inc.) ที่ได้ห้ามการใช้ AI กำเนิดในสถานที่ของตนแล้วเนื่องจากข้อกังวลเดียวกัน การย้ายจากบริษัทดังกล่าวไม่ใช่เรื่องน่าแปลกใจ — โดยเฉพาะอย่างยิ่งหลังจากบั๊ก ChatGPT ล่าสุดที่เปิดเผยประวัติการแชทชั่วคราวและข้อมูลการชำระเงิน และเนื่องจาก OpenAI สามารถเข้าถึงข้อมูลที่ป้อนไปยังการสร้าง ChatGPT บริษัทต่างๆ มีสิทธิ์ทั้งหมดที่จะกลัวการใช้เครื่องมือ AI ดังกล่าวของพนักงาน

อย่างไรก็ตามเรื่องนี้ OpenAI มักจะเตือนผู้ใช้เสมอว่าอย่าเปิดเผย “ข้อมูลที่ละเอียดอ่อนใดๆ” เช่น อธิบาย โดย OpenAI เอง "อาจใช้เนื้อหาที่คุณให้เราเพื่อปรับปรุงบริการของเรา เช่น เพื่อฝึกโมเดลที่ขับเคลื่อน ChatGPT" อย่างไรก็ตาม สิ่งสำคัญที่ควรทราบคือ ChatGPT มีฟีเจอร์โหมดไม่ระบุตัวตนอยู่แล้ว ถึงกระนั้น มันอาจยังไม่ใช่หลักประกันที่เพียงพอสำหรับบริษัทต่าง ๆ โดยเฉพาะอย่างยิ่งเมื่อปัญหาด้านความปลอดภัยธรรมดา ๆ อาจกลายเป็นหายนะทางธุรกิจครั้งใหญ่

ข้อมูลเพิ่มเติมเกี่ยวกับหัวข้อต่างๆ: ai, ChatGPT, AI กำเนิด, ซัมซุง