
Microsoft เปิดตัวชิป AI "Maia 200" ที่พัฒนาเอง เพื่อเพิ่มขีดความสามารถด้าน AI และลดการพึ่งพา Nvidia
Microsoft ประกาศเปิดตัว “Maia 200” ชิป AI ที่พัฒนาขึ้นเองรุ่นที่สองอย่างเป็นทางการ วางยุทธศาสตร์ระยะยาวในการควบคุมโครงสร้างพื้นฐานด้าน AI และลดการพึ่งพาฮาร์ดแวร์จาก Nvidia ท่ามกลางสมรภูมิชิปเดือด ทั้งปัญหาการขาดแคลนและต้นทุนที่พุ่งสูงขึ้นอย่างต่อเนื่อง
โดย Maia 200 ชิปเร่งการประมวลผล AI สำหรับงานอินเฟอเรนซ์เจเนอเรชันล่าสุดนี้ออกแบบมาเพื่อเพิ่มขีดความสามารถของ AI อินเฟอเรนซ์ขนาดใหญ่ที่จะเริ่มเปิดใช้งานในสัปดาห์นี้ที่ดาต้าเซ็นเตอร์ของบริษัทในรัฐไอโอวา และมีแผนขยายการติดตั้งไปยังรัฐแอริโซนาเป็นลำดับถัดไป
การเคลื่อนไหวดังกล่าวเกิดขึ้นในช่วงที่ผู้ให้บริการคลาวด์รายใหญ่ของโลก ไม่ว่าจะเป็น Microsoft, Google และ Amazon Web Services (AWS) ซึ่งล้วนเป็นลูกค้ารายสำคัญของ Nvidia ต่างเร่งพัฒนาชิป AI ของตนเอง เพื่อลดข้อจำกัดด้านซัพพลาย และสร้างความได้เปรียบเชิงต้นทุนในยุคที่ความต้องการพลังประมวลผล AI เพิ่มขึ้นอย่างก้าวกระโดด
Microsoft เปิดเผยว่า Maia 200 ผลิตด้วยเทคโนโลยี 3 นาโนเมตรของ TSMC ประกอบด้วยทรานซิสเตอร์กว่า 1 แสนล้านตัว ตอบโจทย์งาน AI ขนาดใหญ่โดยเฉพาะ ซึ่งออกแบบมาเป็น AI Accelerator สำหรับงานคลาวด์โดยเฉพาะ
โดยบริษัทระบุว่า ด้วยความสามารถในการประมวลผล 4-bit (FP4) ได้มากกว่า 10 PetaFLOPS และ 8-bit (FP8) ที่ประมาณ 5 PetaFLOPS ทำให้สามารถรันโมเดล AI ที่ซับซ้อนได้อย่างรวดเร็วและมีศักยภาพรองรับโมเดลในอนาคต ซึ่งจะให้ประสิทธิภาพการประมวลผลที่สูงกว่า Amazon Trainium รุ่นที่ 3 ถึง 3 เท่า และมีประสิทธิภาพแบบ FP8 สูงกว่าชิป TPU รุ่นที่ 7 ของ Google
พร้อมระบุอีกว่า “Maia 200 ถือเป็นระบบ inference ที่มีประสิทธิภาพสูงที่สุด” เท่าที่บริษัทเคยนำมาใช้งาน โดยถูกออกแบบให้รองรับการประมวลผลคำสั่งจากผู้ใช้จำนวนมากพร้อมกัน ด้วยการบรรจุหน่วยความจำประเภท SRAM ในปริมาณสูงเพื่อเพิ่มความเร็วในการตอบสนองของระบบ AI
ตัวเลขดังกล่าวสะท้อนว่า Microsoft ไม่ได้วางตำแหน่ง Maia 200 เป็นเพียงทางเลือกทดแทนชิป Nvidia แต่กำลังผลักดันให้ชิปของตนเองสามารถแข่งขันกับคู่แข่งรายอื่นในตลาดคลาวด์ได้อย่างจริงจัง โดยเฉพาะในงาน inference ซึ่งเป็นหัวใจของการให้บริการ AI เชิงพาณิชย์ เช่น แชตบอต และผู้ช่วยอัจฉริยะ
นอกเหนือจากฮาร์ดแวร์ Microsoft ยังเดินเกมสำคัญในฝั่งซอฟต์แวร์ ด้วยการเปิดตัวชุดเครื่องมือสำหรับพัฒนาและเขียนโปรแกรมชิป Maia 200 โดยรวมถึง “Triton” ซอฟต์แวร์โอเพ่นซอร์สที่มี OpenAI ผู้พัฒนา ChatGPT เป็นหนึ่งในผู้ร่วมพัฒนาหลัก โดย Triton ถูกออกแบบมาเพื่อทำหน้าที่เดียวกับ Cuda ซอฟต์แวร์ของ Nvidia ซึ่งนักวิเคราะห์ในอุตสาหกรรมมองว่าเป็นหนึ่งในความได้เปรียบเชิงการแข่งขันที่สำคัญที่สุดของ Nvidia และเป็นเหตุผลที่ทำให้นักพัฒนาจำนวนมากยังคงผูกติดกับระบบนิเวศของ Nvidia
การผลักดัน Triton ควบคู่ไปกับชิป Maia 200 จึงสะท้อนว่า Microsoft ไม่ได้ต้องการเพียงมีชิปของตัวเองเท่านั้น แต่กำลังพยายามสร้างระบบนิเวศ AI แบบครบวงจร ตั้งแต่การออกแบบชิปซิลิคอน ซอฟต์แวร์ระบบ ไปจนถึงคลาวด์และโมเดล AI ผสานเข้ากับดาต้าเซ็นเตอร์เพื่อสร้างระบบนิเวศของตนเองอย่างสมบูรณ์
Microsoft ระบุว่า Maia 200 จะถูกนำไปใช้งานกับบริการหลักของบริษัท รวมถึง Copilot สำหรับภาคธุรกิจ และโมเดล AI ต่างๆ ที่ Microsoft เปิดให้ลูกค้าเช่าผ่านแพลตฟอร์ม Azure ซึ่งรวมถึงโมเดลล่าสุดของ OpenAI
โดยชิปล็อตแรกบางส่วนจะถูกนำไปใช้งานโดยทีม Superintelligence ของ Microsoft เพื่อสร้างข้อมูลสำหรับพัฒนาโมเดล AI รุ่นถัดไป ขณะเดียวกันบริษัทก็ได้เริ่มพัฒนาชิปรุ่นต่อไปอย่าง “Maia 300” แล้ว และยังมีทางเลือกเชิงกลยุทธ์จากความร่วมมือกับ OpenAI ในการเข้าถึงการออกแบบชิป AI รุ่นใหม่หากจำเป็น
นักวิเคราะห์มองว่า การเปิดตัว Maia 200 เป็นสัญญาณชัดเจนว่า Microsoft กำลังวางเดิมพันระยะยาวในสงครามโครงสร้างพื้นฐาน AI ท่ามกลางข้อจำกัดด้านพลังงานและซัพพลายชิปทั่วโลก และการแข่งขันที่ไม่ได้วัดกันแค่ “ใครมีโมเดล AI เก่งที่สุด” แต่รวมถึง “ใครควบคุมต้นทุนและประสิทธิภาพได้ดีที่สุด หลังจากนี้
ที่มาข้อมูล Microsoft
ติดตามเพจ Facebook : Thairath Money ได้ที่ลิงก์นี้ -