OpenAI ดำเนินการขั้นตอนใดบ้างเพื่อจำกัดการใช้เครื่องมือ AI สำหรับการรณรงค์ทางการเมือง

ไอคอนเวลาอ่านหนังสือ 2 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

การตัดสินใจของ OpenAI ที่จะแนะนำเครื่องมือเพื่อต่อสู้กับข้อมูลที่บิดเบือนก่อนการเลือกตั้งในประเทศต่างๆ เป็นการตอบสนองต่อการนำเทคโนโลยีไปใช้ในทางที่ผิด เช่น ChatGPT และ DALL-E 3 เพื่อการรณรงค์ทางการเมือง บริษัทมีความกังวลเกี่ยวกับความเสี่ยงของการบิดเบือนข้อมูลที่ขับเคลื่อนด้วย AI และข้อมูลที่ผิดซึ่งบ่อนทำลายกระบวนการประชาธิปไตย โดยเฉพาะในช่วงการเลือกตั้ง

สิ่งสำคัญประการหนึ่งของ OpenAIกลยุทธ์ของคือการจำกัดการใช้เทคโนโลยีในการรณรงค์ทางการเมืองและการล็อบบี้จนกว่าจะทราบข้อมูลเพิ่มเติมเกี่ยวกับผลกระทบที่อาจเกิดขึ้นจากการโน้มน้าวใจส่วนบุคคล

บริษัทรับทราบถึงความจำเป็นในการเข้าใจประสิทธิภาพของเครื่องมือ และกำลังทำงานอย่างแข็งขันกับโซลูชันเพื่อให้แน่ใจว่ามีการใช้งานอย่างมีความรับผิดชอบ ซึ่งรวมถึงการพัฒนาเครื่องมือเพื่อให้ระบุแหล่งที่มาที่เชื่อถือได้สำหรับข้อความที่สร้างโดย ChatGPT และช่วยให้ผู้ใช้ตรวจสอบได้ว่ารูปภาพถูกสร้างขึ้นโดยใช้ DALL-E 3 หรือไม่

OpenAI วางแผนที่จะใช้ Coalition for Content Provenance และข้อมูลรับรองดิจิทัลของ Authenticity เพื่อปรับปรุงวิธีการระบุและติดตามเนื้อหาดิจิทัล ด้วยการทำเช่นนี้ OpenAI มีเป้าหมายที่จะจัดการกับความกังวลเกี่ยวกับความถูกต้องของเนื้อหาที่สร้างขึ้นโดยใช้โมเดล AI

บริษัทกำลังดำเนินการเพื่อให้แน่ใจว่าโมเดลของตน เช่น DALL-E 3 มี "รั้ว" เพื่อป้องกันการสร้างภาพของบุคคลจริง รวมถึงผู้สมัครทางการเมืองด้วย

การพัฒนาและการใช้เครื่องมือเพื่อต่อสู้กับข้อมูลที่บิดเบือนแสดงถึงความพยายามอย่างต่อเนื่องในการบรรเทาผลกระทบด้านลบของเทคโนโลยี AI ขั้นสูงที่มีต่อสังคมและกระบวนการประชาธิปไตย

More โปรดคลิกที่นี่เพื่ออ่านรายละเอียดเพิ่มเติม.

ข้อมูลเพิ่มเติมเกี่ยวกับหัวข้อต่างๆ: openAI