Microsoft ทุ่มเงินหลักร้อยล้านดอลลาร์กับซูเปอร์คอมพิวเตอร์ชิป GPU Nvidia A100 นับหมื่นชิ้น และวางโครงสร้างเซิร์ฟเวอร์ที่ได้รับการปรับปรุงใหม่ซึ่งเป็นเบื้องหลังของ ChatGPT และ Bing AI
จากรายงานของ Bloomberg ที่ได้เผยแพร่เมื่อวันจันทร์ที่ผ่านมา Microsoft ได้อธิบายถึงวิธีการสร้างโครงสร้างพื้นฐานของปัญญาประดิษฐ์อันทรงพลังของ Azure ที่ใช้โดย OpenAI
ทาง Microsoft ได้กล่าวว่า การเชื่อมโยงหน่วยประมวลผลกราฟิก (GPU) A100 ของ Nvidia นับหมื่นชิ้นเข้าด้วยกันบนแพลตฟอร์มซูเปอร์คอมพิวเตอร์ Azure ส่งผลให้ OpenAI สามารถฝึกฝนโมเดลให้มีประสิทธิภาพมากยิ่งขึ้น และปลดล็อกความสามารถใหม่ ๆ ของ AI เช่น ChatGPT และ Bing AI ออกมา
ด้าน สก็อตต์ กูทรี (Scott Guthrie) รองประธานฝ่าย AI และคลาวด์ของ Microsoft บอกว่าบริษัทได้ใช้เงินหลายร้อยล้านดอลลาร์สำหรับโครงการใหญ่นี้ และกำลังมุ่งมั่นทำงานเพื่อทำให้ความสามารถด้าน AI ของ Azure มีประสิทธิภาพการทำงานที่ดียิ่งขึ้นด้วย GPU Tensor Core H100 และ A100 ของ Nvidia ซึ่งรวมไปถึงเทคโลโนยี Quantum-2 InfiniBand ที่ Microsoft และ nVidia ได้เปิดตัวเมื่อปีที่ผ่านมา
Microsoft เห็นว่าควรที่จะสร้างคลัสเตอร์ขนาดใหญ่เพื่อเปิดทางสำหรับวัตถุประสงค์พิเศษเพื่อมุ่งเน้นสำหรับงานเวิร์กโหลดฝึกอบรม AI ที่มีขนาดใหญ่มากยิ่งขึ้น และ OpenAI ก็เป็นหนึ่งในข้อพิสูจน์แรกสำหรับสิ่งนี้
เอริค บอยด์ (Eric Boyd) รองประธานบริษัท Azure AI ของ Microsoft กล่าวไว้ในแถลงการณ์ว่า “พวกเรากำลังทำงานอย่างใกล้ชิดเพื่อเรียนรู้ว่าอะไรคือสิ่งสำคัญที่สุด โดยพวกเรานั้นก็ได้สร้างสภาพแวดล้อมสำหรับการฝึกฝนอบรม AI มาโดยเฉพาะ และกำลังเฟ้นหาสิ่งที่สำคัญที่สุดที่พวกเราต้องการ”
แหล่งที่มา :
- ภาพและบทความภาษาไทย : beartai.com