GPT-4 พร้อมใช้งานแล้วสำหรับสมาชิก ChatGPT Plus

ไอคอนเวลาอ่านหนังสือ 3 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

OpenAI เปิดตัวในที่สุด จีพีที-4. ตามที่บริษัทระบุว่า AI รุ่นล่าสุดนั้นแม่นยำและมีประสิทธิภาพมากขึ้น เนื่องจากสามารถจัดการกับอินพุตได้มากขึ้นโดยไม่เกิดความสับสน นอกจากนั้น GPT-4 ยังมี หลายรูปแบบ ความสามารถในการประมวลผลภาพ ขณะนี้ GPT-4 มีให้บริการสำหรับสมาชิก ChatGPT Plus และนักพัฒนาสามารถเข้าถึงเป็น API ได้แล้ว

หลังจาก รายงาน เกี่ยวกับการมาถึงเมื่อสัปดาห์ที่แล้ว ในที่สุด GPT-4 ก็มาถึงแล้ว โดยส่งผ่านโครงสร้างพื้นฐานที่ปรับให้เหมาะกับ AI ของ Azure ได้รับการฝึกอบรมเกี่ยวกับซูเปอร์คอมพิวเตอร์ Microsoft Azure AI และมีความแตกต่างที่โดดเด่นจาก GPT-3.5 โดยเฉพาะ GPT-4 คะแนน ในเปอร์เซ็นไทล์ที่ 88 ขึ้นไปในการทดสอบและการวัดประสิทธิภาพที่แตกต่างกัน 

“ในการสนทนาทั่วไป ความแตกต่างระหว่าง GPT-3.5 และ GPT-4 อาจดูบอบบาง” OpenAI กล่าวในบล็อกโพสต์ “ความแตกต่างเกิดขึ้นเมื่อความซับซ้อนของงานถึงเกณฑ์ที่เพียงพอ — GPT-4 มีความน่าเชื่อถือ สร้างสรรค์ และสามารถจัดการกับคำสั่งที่เหมาะสมกว่า GPT-3.5”

โดยทั่วไปแล้ว OpenAI กล่าวว่ามีความเป็นไปได้น้อยกว่า 82% ที่โมเดลใหม่จะตอบสนองต่อหัวข้อและคำขอที่ถูกจำกัด ทำให้ปลอดภัยสำหรับผู้ใช้ คุณภาพของการตอบกลับก็ดีขึ้นเช่นกัน โดยมีโอกาสสูงถึง 40% ในการให้คำตอบที่เป็นข้อเท็จจริง

ส่วนใหญ่ของ GPT-4 มุ่งเน้นไปที่ความสามารถในการจัดการข้อความค้นหาได้อย่างมีประสิทธิภาพมากขึ้น ดังที่ OpenAI ระบุไว้ ขณะนี้สามารถรับข้อความได้ 25,000 คำโดยไม่เกิดความสับสน นี่เป็นข่าวดีสำหรับผู้ใช้ที่ต้องการใช้ศักยภาพของโมเดลอย่างเต็มที่ เนื่องจากจะได้รับอนุญาตให้ระบุรายละเอียดและคำแนะนำเพิ่มเติมในคำถามและคำขอของตน อย่างไรก็ตาม ไฮไลท์ที่ใหญ่ที่สุดของ GPT-4 คือการเพิ่มความสามารถในการทำงานหลายรูปแบบ ซึ่งเป็นหนึ่งในความคาดหวังที่ใหญ่ที่สุดจากโมเดลตั้งแต่มีรายงานเมื่อสัปดาห์ที่แล้ว เมื่อใช้ความสามารถใหม่นี้ GPT-4 สามารถประมวลผลอินพุตรูปภาพและอธิบายผ่านข้อความได้ แม้ว่าจะไม่พร้อมใช้งานสำหรับลูกค้า OpenAI ทุกคน เนื่องจากยังอยู่ระหว่างการทดสอบทางเทคนิคด้วยความช่วยเหลือจาก Be My Eyes และฟีเจอร์อาสาสมัครเสมือน .

GPT-4 บรรยายภาพ
เครดิตภาพ: OpenAI

GPT-4 บรรยายภาพ

“ตัวอย่างเช่น หากผู้ใช้ส่งรูปภาพภายในตู้เย็นของตน อาสาสมัครเสมือนจะไม่เพียงแต่สามารถระบุสิ่งที่อยู่ในตู้เย็นได้อย่างถูกต้องเท่านั้น แต่ยังสามารถคาดการณ์และวิเคราะห์สิ่งที่สามารถเตรียมได้จากส่วนผสมเหล่านั้น” OpenAi อธิบายฟังก์ชัน . “เครื่องมือนี้ยังสามารถเสนอสูตรอาหารจำนวนมากสำหรับส่วนผสมเหล่านั้น และส่งคำแนะนำทีละขั้นตอนเกี่ยวกับวิธีการทำ”

ตอนนี้ Wow Bing สามารถอธิบายรูปภาพได้แล้ว ตอนนี้มันรู้แล้วว่ากำลังใช้ GPT-4!
byu/BroskiPlaysYT inBing

อย่างไรก็ตาม ความสามารถหลายรูปแบบนี้ดูเหมือนจะถูกนำเข้ามาบางส่วน Bing ใหม่. Microsoft กล่าวว่า chatbot ของเสิร์ชเอ็นจิ้นได้ใช้งานโมเดลนี้ตั้งแต่สัปดาห์ที่แล้ว อย่างไรก็ตาม สิ่งสำคัญคือต้องทราบว่าคุณลักษณะต่อเนื่องหลายรูปแบบของ Bing ยังมีข้อจำกัดอยู่ ในการเริ่มต้น สามารถยอมรับรูปภาพผ่านลิงก์ที่มีให้บนเว็บเท่านั้น ซึ่งจะอธิบายว่าเป็นการตอบกลับ ในขณะเดียวกัน เมื่อขอรูปภาพโดยใช้คำอธิบาย แชทบอทจะให้เนื้อหาที่เกี่ยวข้องมากที่สุด รวมถึงผลการค้นหารูปภาพและอีกมากมาย

Bing Chat ใช้คุณสมบัติหลายรูปแบบในการตอบสนอง

โปรดทราบว่าการปรับปรุงเหล่านี้ใน GPT-4 ไม่ได้หมายถึงการยุติปัญหาที่มีอยู่ทั่วไปในผลิตภัณฑ์ AI เชิงกำเนิดทั้งหมด แม้ว่า OpenAI สัญญาว่าโมเดลจะปลอดภัยกว่า GPT-3.5 ในแง่ของการปฏิเสธที่จะตอบสนองต่อคำแนะนำที่เป็นอันตราย แต่ก็ยังสามารถสร้างภาพหลอนและอคติทางสังคมได้ แม้กระทั่ง Sam Altman CEO ของ OpenAI อธิบาย GPT-4 เป็นสิ่งที่ “ยังมีข้อบกพร่อง ยังมีข้อจำกัด” อย่างไรก็ตาม ทีมงานยังคงทุ่มเทให้กับการปรับปรุงโมเดลอย่างต่อเนื่อง เนื่องจากโมเดลยังคงดึงดูดความสนใจจากสาธารณชนมากขึ้น และในขณะที่ Microsoft ใส่โมเดลนี้ลงในผลิตภัณฑ์อื่นๆ ของบริษัทมากขึ้น

ฟอรั่มผู้ใช้

ข้อความ 0