Microsoft Azure ขยายความพร้อมใช้งานของโมเดล OpenAI GPT-4 และ GPT-35-Turbo ไปยังภูมิภาคต่างๆ มากขึ้น

ไอคอนเวลาอ่านหนังสือ 2 นาที. อ่าน


ผู้อ่านช่วยสนับสนุน MSpoweruser เราอาจได้รับค่าคอมมิชชันหากคุณซื้อผ่านลิงก์ของเรา ไอคอนคำแนะนำเครื่องมือ

อ่านหน้าการเปิดเผยข้อมูลของเราเพื่อดูว่าคุณจะช่วย MSPoweruser รักษาทีมบรรณาธิการได้อย่างไร อ่านเพิ่มเติม

โลโก้บริการ Microsoft Azure OpenAI

Microsoft เมื่อวานนี้ ประกาศ ความพร้อมใช้งานที่เพิ่มขึ้นของ Azure OpenAI Service ด้วยการขยายนี้ ลูกค้าในออสเตรเลียตะวันออก, แคนาดาตะวันออก, สหรัฐอเมริกาตะวันออก 2, ญี่ปุ่นตะวันออก และสหราชอาณาจักรใต้ จะสามารถเข้าถึงโมเดล OpenAI ยอดนิยม GPT-4 และ GPT-35-Turbo ได้ ก่อนการขยายตัวนี้ บริการ Azure OpenAI มีให้บริการในสหรัฐอเมริกาตะวันออก ภาคกลางของฝรั่งเศส ภาคใต้ของสหรัฐอเมริกาตอนกลาง และยุโรปตะวันตก ในระหว่างการเรียกรายได้ล่าสุด Microsoft ประกาศว่าบริการ Azure OpenAI ให้บริการลูกค้ามากกว่า 11,000 รายแล้ว โดยดึงดูดลูกค้าใหม่เฉลี่ย 100 รายต่อวัน

วันนี้ Microsoft ยังประกาศความพร้อมใช้งานทั่วไปของซีรีส์ Azure ND H100 v5 Virtual Machine (VM) ซึ่งมี NVIDIA H100 Tensor Core GPUs ล่าสุดและเครือข่าย NVIDIA Quantum-2 InfiniBand VM ซีรีส์ใหม่นี้ได้รับการออกแบบมาโดยเฉพาะสำหรับปริมาณงาน AI และขณะนี้มีให้บริการในภูมิภาค Azure ของสหรัฐอเมริกาตะวันออกและสหรัฐอเมริกาตอนกลางตอนใต้ แม้ว่าโดยทั่วไป VM จะพร้อมใช้งาน ลูกค้าต้องลงทะเบียนความสนใจในการเข้าถึง VM ใหม่

ND H100 v5 VM มีคุณสมบัติดังต่อไปนี้:

  • ติดตั้ง NVIDIA H100 Tensor Core GPU แปดตัว VM เหล่านี้รับประกันประสิทธิภาพของโมเดล AI ที่เร็วกว่ารุ่นก่อนหน้าอย่างมาก
  • โปรเซสเซอร์ Intel Xeon Scalable เจนเนอเรชั่น 4 เป็นรากฐานของ VM เหล่านี้ ทำให้มั่นใจได้ถึงความเร็วในการประมวลผลที่เหมาะสมที่สุด
  • NVIDIA Quantum-2 ConnectX-7 InfiniBand พร้อม 400Gb/s ต่อ GPU และ 3.2 Tb/s ต่อ VM ของแบนด์วิธแบบข้ามโหนด ช่วยให้มั่นใจถึงประสิทธิภาพที่ราบรื่นทั่วทั้ง GPU ซึ่งเทียบได้กับความสามารถของซูเปอร์คอมพิวเตอร์ที่มีประสิทธิภาพสูงสุดทั่วโลก
  • ด้วย PCIe Gen5 ที่ให้แบนด์วิธ 64GB/s ต่อ GPU ทำให้ Azure ได้รับข้อได้เปรียบด้านประสิทธิภาพที่สำคัญระหว่าง CPU และ GPU
  • หน่วยความจำ DDR5 เป็นแกนหลักของ VM เหล่านี้ มอบความเร็วและประสิทธิภาพการถ่ายโอนข้อมูลที่สูงกว่า ทำให้เหมาะสำหรับเวิร์กโหลดที่มีชุดข้อมูลขนาดใหญ่
  • ด้วยความเร็วเพิ่มขึ้นถึงหกเท่าในการคูณเมทริกซ์ เมื่อใช้ชนิดข้อมูลทศนิยม FP8 แบบ 8 บิตใหม่ เมื่อเทียบกับ FP16 ในรุ่นก่อนหน้า
  • ด้วยความเร็วเพิ่มขึ้นถึงสองเท่าในโมเดลภาษาขนาดใหญ่ เช่น การอนุมานโมเดลแบบ end-to-end ของ BLOOM 175B ซึ่งแสดงให้เห็นถึงศักยภาพในการปรับแต่งแอปพลิเคชัน AI ให้ดียิ่งขึ้น

ข้อมูลเพิ่มเติมเกี่ยวกับหัวข้อต่างๆ: สีฟ้า, บริการ Azure OpenAI, ไมโครซอฟท์