ขณะนี้ OpenAI จ้างผู้ตรวจสอบเพื่อปราบปรามผู้รั่วไหลจากภายในและภัยคุกคามอื่นๆ
ผู้สมัครจะต้องมีประสบการณ์ที่เกี่ยวข้องอย่างน้อย 3 ปี
2 นาที. อ่าน
เผยแพร่เมื่อ
อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม
หมายเหตุสำคัญ
- ความก้าวหน้าภายในที่รวดเร็วของ OpenAI มักถูกเปิดเผยโดยคนใน
- ขณะนี้บริษัทกำลังจ้างพนักงานสืบสวนสำหรับทีมรักษาความปลอดภัย
- บทบาทคือการ “ตรวจจับ วิเคราะห์ และบรรเทาภัยคุกคามภายในที่อาจเกิดขึ้นโดยการเชื่อมโยงข้อมูลจากแหล่งต่างๆ”
OpenAI ยักษ์ใหญ่ด้าน AI เผชิญกับความท้าทายที่ไม่เหมือนใคร: ความก้าวหน้าภายในที่รวดเร็วมักจะถูกคนในล้นทะลัก ซึ่งกลายเป็นเชื้อเพลิง ความวิตกกังวลภายในบริษัท. เพื่อต่อสู้กับการรั่วไหลและรักษาความปลอดภัยของนวัตกรรม OpenAI กำลังจ้างผู้ตรวจสอบเพื่อ "บรรเทาภัยคุกคามภายในที่อาจเกิดขึ้น"
บทบาทที่สำคัญนี้ตามรายละเอียด OpenAI ในหน้าอาชีพ เกี่ยวข้องกับการสร้างตัวบ่งชี้เชิงรุก ดำเนินการสืบสวนอย่างรอบคอบกับฝ่ายกฎหมายและทรัพยากรบุคคล และกำหนดวัฒนธรรมที่ปลอดภัยผ่านการฝึกอบรม บริษัทยังกล่าวอีกว่าผู้สมัครที่ประสบความสำเร็จจะต้องร่วมมือกับทีมเพื่ออุดช่องว่างด้านความปลอดภัยและใช้การควบคุมป้องกันข้อมูลสูญหาย
ผู้สมัครจะต้องมีประสบการณ์ด้านความปลอดภัยทางไซเบอร์ที่เกี่ยวข้องอย่างน้อย 3 ปี มีความชำนาญใน SIEM และเครื่องมือวิเคราะห์พฤติกรรมผู้ใช้ และสำเร็จการศึกษาระดับปริญญาตรีหรือสูงกว่าในสาขาวิชาที่เกี่ยวข้อง และจากการดูโดยย่อของเรา Archive.orgตำแหน่งว่างนี้เพิ่มขึ้นอย่างน้อยตั้งแต่เดือนมกราคมปีนี้เป็นอย่างน้อย
“ทีมรักษาความปลอดภัยปกป้องเทคโนโลยี ผู้คน และผลิตภัณฑ์ของ OpenAI เราเชี่ยวชาญด้านเทคนิคในสิ่งที่เราสร้าง แต่ดำเนินการตามวิธีการทำงานของเรา และมุ่งมั่นที่จะสนับสนุนผลิตภัณฑ์และการวิจัยทั้งหมดที่ OpenAI” บริษัท กล่าว
มีการรั่วไหลของข้อมูลสำคัญบางอย่างที่ OpenAI เมื่อเร็ว ๆ นี้ เมื่อเดือนที่แล้วเอง Ars Technica รายงานว่าผู้ใช้ ChatGPT ค้นพบข้อมูลส่วนตัว รวมถึงงานวิจัยที่ไม่ได้เผยแพร่ในการแชท OpenAI อ้างในภายหลังว่าประวัติการแชทของผู้ใช้ที่ถูกเปิดเผยนั้นเกิดจากการเข้าสู่ระบบของศรีลังกาโดยไม่ได้รับอนุญาต
อีกเหตุการณ์หนึ่งในเดือนพฤศจิกายนยังนำไปสู่การเปิดเผยข้อมูลบางอย่างที่เกี่ยวข้องกับแชทบอทแบบกำหนดเองของ OpenAI รวมถึงคำแนะนำในการตั้งค่าเริ่มต้นและไฟล์การปรับแต่ง
และถึงเวลาที่เราจะพูดคุยกัน การรั่วไหลเป็นเรื่องที่น่ากังวล โดยเฉพาะอย่างยิ่งเมื่อพูดถึงข้อมูลผู้ใช้ นี่ไม่ใช่แค่ปัญหา OpenAI แม้แต่ Bard ซึ่งเป็นคู่แข่งของ ChatGPT ที่ Google เปิดเผยอย่างเปิดเผย ใช้ผู้ตรวจสอบที่เป็นมนุษย์ไม่ได้รับการยกเว้น
OpenAI มีส่วนร่วมในโครงการ AI มากมายในช่วงไม่กี่สัปดาห์ที่ผ่านมา เมื่อไม่นานมานี้มีรายงานว่าบริษัท สร้าง AI ใหม่ สำหรับการทำงานอัตโนมัติบนอุปกรณ์ (ผ่าน ข้อมูล) และยังมี ผนึกกำลังกับไมโครซอฟต์ เพื่อเป็นผู้นำในการระดมทุน 500 ล้านดอลลาร์สำหรับสตาร์ทอัพหุ่นยนต์ Figure AI
ฟอรั่มผู้ใช้
ข้อความ 0