รู้จัก TPU ชิป AI ที่ Google กำลังท้าชน GPU ของ Nvidia แม้จะไม่แรงเท่า แต่ทำไมเป็นหัวใจ AI หลายตัว

Tech & Innovation

Tech Companies

กองบรรณาธิการ

กองบรรณาธิการ

Tag

รู้จัก TPU ชิป AI ที่ Google กำลังท้าชน GPU ของ Nvidia แม้จะไม่แรงเท่า แต่ทำไมเป็นหัวใจ AI หลายตัว

Date Time: 3 ธ.ค. 2568 10:00 น.

Video

บุกโรงงานญี่ปุ่น ทัวร์ Glico ยักษ์ใหญ่อาหาร 3 แสนล้านเยน | BrandStory EP.27

Summary

TPU ชิป AI ที่ถูกออกแบบมาเพื่อบริการ Search และเพิ่มประสิทธิภาพการประมวลผล จนต่อมา Google ได้พัฒนาต่อเพื่อรองรับการทำงานด้าน AI และเริ่มคว้าดีลใหญ่มากขึ้นเรื่อย ๆ ส่งสัญญาณว่าชิปของ Google เริ่มกลายเป็นคู่แข่งคนสำคัญในตลาด ที่ตอนนี้ได้ทุ่มเงินมหาศาลและเหมือนจะพึ่งเพียงแค่ Nvidia อยู่เจ้าเดียว

เมื่อไม่นานมานี้ มีการรายงานออกมาจากทาง The Information ว่า Meta กำลังพิจารณาจะซื้อชิปจาก Google แทนของ Nvidia ทำเอาหุ้นของบริษัทผู้ผลิตชิปรายใหญ่ของโลก อย่าง Nvidia ร่วงลงทันทีที่ 7% ในวันที่มีข่าวนี้ออกมา

ตามรายงานระบุว่า Meta กำลังพิจารณาที่จะใช้งานชิป TPU หรือ Tensor Processing Units ของ Google ใน Data Center ของตัวเองในปี 2027 และคาดว่าจะเช่าชิป TPU ของ Google ก่อนในปีหน้า

ตลาดให้ความสนใจกับเรื่องนี้อย่างมาก เพราะเริ่มอยากเห็นการแข่งขันที่มากขึ้นในตลาดชิป ขณะที่เจ้าใหญ่ที่ครองตลาดอยู่ยังคงเป็น Nvidia ซึ่งเป็นผู้ผลิต GPU หรือ Graphics Processing Units โดยก่อนหน้านี้ชิปนี้ใช้สำหรับประมวลผลกราฟิกของวิดีโอเกมให้สมจริง ก่อนจะปรับมาให้รองรับการทำงานด้าน AI ด้วย

อย่างไรก็ตาม Google ได้เปิดตัว TPU ของตัวเองมาเป็นสิบปีแล้ว แรกเริ่มเพื่อช่วยเร่งความเร็วของบริการค้นหาข้อมูล (Search) และเพิ่มประสิทธิภาพการประมวลผล ต่อมาจึงนำชุดชิปนี้ไปปรับใช้กับงาน Machine Learning และแอปพลิเคชัน AI ของตัวเอง

วันนี้ Google เริ่มคว้าดีลใหญ่ ๆ ได้มากขึ้นเรื่อย ๆ เป็นสัญญาณบ่งชี้ว่าชิปของ Google เริ่มกลายเป็นคู่แข่งที่น่าเชื่อถือ และอาจจะเข้ามาแย่งพื้นที่ของ Nvidia ในงาน Training และ Inference ของโมเดลภาษาขนาดใหญ่ (LLM) ในยุคปัจจุบันไป


GPU กับ TPU ต่างกันอย่างไร?

ตามที่กล่าวไปเบื้องต้น ชิปทั้งสองถูกออกแบบมาเพื่อรองรับการคำนวณจำนวนมหาศาลที่เกิดขึ้นระหว่างการฝึกโมเดล AI ได้เหมือนกัน แต่กลับมีวิธีการทำงานแตกต่างกันอย่างชัดเจน


GPU หรือ Graphics Processing Unit

  • เดิมทีถูกพัฒนาขึ้นเพื่อเรนเดอร์ภาพในวิดีโอเกมให้ดูสมจริง
  • โดยจะประมวลผลหลายงานพร้อมกัน (Parallel Processing) ผ่านหน่วยประมวลผลย่อยหรือ “คอร์” (Cores) นับพัน
  • สถาปัตยกรรมนี้ช่วยให้ GPU สามารถทำงานด้าน AI ได้เร็วมาก และบางงานก็เร็วกว่าเทคโนโลยีอื่นแบบทิ้งห่าง
  • จุดแข็ง: มีความยืดหยุ่นสูง ปรับโปรแกรมได้ ใช้งานได้หลากหลาย
  • จุดอ่อน: ความยืดหยุ่นนี้ทำให้ใช้พลังงานสูงและมีต้นทุนการประมวลผลสูงกว่า


TPU หรือ Tensor Processing Unit

  • ถูกสร้างขึ้นเฉพาะเพื่องาน AI ประเภทหนึ่งที่เรียกว่า “Matrix Multiplication” ซึ่งเป็นปฏิบัติการหลักในการฝึกสอนโครงข่ายประสาทเทียม (Neural Networks) ที่ใช้สร้างคำตอบในแชตบอท AI อย่าง ChatGPT ของ OpenAI หรือ Claude ของ Anthropic
  • งานส่วนใหญ่จะเกี่ยวข้องกับการคำนวณซ้ำ ๆ ที่ทำเป็นลำดับ (Sequentially) มากกว่าทำแบบขนานเท่า GPU
  • จุดแข็ง: ประหยัดพลังงานกว่า ทำงานเฉพาะทางได้เร็วกว่าในบางงาน
  • จุดอ่อน: ความยืดหยุ่นต่ำกว่า ไม่ได้เหมาะกับงานหลากหลายเท่า GPU


TPU มาเป็นผู้ท้าชิงในวงการ AI ได้อย่างไร?

Google เริ่มพัฒนา TPU รุ่นแรกในปี 2013 และเปิดตัวในอีกสองปีต่อมา โดยเริ่มแรกใช้เพื่อเร่งความเร็ว Search Engine และเพิ่มประสิทธิภาพภายในบริษัท ต่อมาในปี 2018 Google เริ่มนำ TPU มาให้บริการบนแพลตฟอร์ม Google Cloud เพื่อให้ลูกค้าสามารถสมัครใช้บริการประมวลผลด้วยเทคโนโลยีเดียวกับที่ขับเคลื่อน Search Engine ของตัวเอง

นอกจากนี้ TPU ยังถูกปรับใช้เพื่อรองรับการพัฒนา AI ภายใน Google และ DeepMind เมื่อทีม AI พัฒนาระบบระดับแนวหน้าอย่าง Gemini ข้อมูลที่ได้จากการฝึกโมเดลก็ถูกส่งกลับไปให้ทีมออกแบบชิปเพื่อนำไปปรับปรุง TPU รุ่นถัดไป เป็นการพัฒนาแบบวนลูประหว่างทีมฮาร์ดแวร์และ AI

TPU รุ่นล่าสุดของ Google มีชื่อว่า “Ironwood” เปิดตัวเมื่อเดือนเมษายนที่ผ่านมา เป็นระบบระบายความร้อนด้วยของเหลว และถูกออกแบบมาเพื่อรันงาน AI Inference (การนำโมเดล AI ไปใช้งานจริง ไม่ใช่การฝึกสอน) โดยมีให้เลือกสองรูปแบบคือ แบบกลุ่ม (Pod) 256 ชิป หรือกลุ่มใหญ่ขนาด 9,216 ชิป

Jay Goldberg นักวิเคราะห์จาก Seaport กล่าวว่า “TPU สามารถทำงานได้ดีกว่า GPU ในงาน AI บางประเภท เพราะ Google สามารถตัดชิ้นส่วนอื่น ๆ ของชิปที่ไม่จำเป็นต่องาน AI ออกไปได้” ซึ่งปัจจุบันผลิตภัณฑ์ดำเนินมาถึงรุ่นที่ 7 แล้ว โดย Google ได้ปรับปรุงประสิทธิภาพ ทำให้ชิปทรงพลังขึ้น และลดพลังงานที่ต้องใช้ลง ซึ่งช่วยลดค่าใช้จ่ายในการใช้งาน


โอกาสของ TPU

ลูกค้ารายปัจจุบันที่ใช้งาน TPU อย่างเช่น Safe Superintelligence สตาร์ทอัพที่ก่อตั้งโดย Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI, Salesforce, Midjourney และ Anthropic

โดยตัวอย่างอย่าง Anthropic ได้มีการทำข้อตกลงกับ Google ว่า จะมีการใช้งานการประมวลผลของ Google มากกว่า 1 กิกะวัตต์ ผ่านการใช้งาน TPU จำนวนมากถึง 1 ล้านตัว และล่าสุดก็มีรายงานผู้เล่นรายใหม่ว่า Meta ก็กำลังเจรจาเพื่อใช้ TPU ของ Google ด้วยเช่นกัน

ความเคลื่อนไหวเหล่านี้ตอกย้ำว่า บริษัทยักษ์ใหญ่ด้าน AI กำลังหันมาเลือกใช้ TPU เพื่อเร่งเพิ่มพลังการประมวลผลให้ทันกับความต้องการที่พุ่งสูงขึ้นอย่างรวดเร็ว

ที่ผ่านมา บริษัทเทคโนโลยีที่กำลังเร่งพัฒนา AI ต้องทุ่มเงินมหาศาลให้กับ Nvidia ซึ่งเป็นเจ้าใหญ่ในตลาด เพื่อเข้าถึงชิปคุณภาพที่มีราคาสูง ต่อมาจึงเกิดแนวคิดที่จะลดการพึ่งพา Nvidia เพียงรายเดียวลง บวกกับปัญหาชิปขาดแคลน ทำให้ TPU เข้ามาชิงส่วนแบ่งในตลาดไป

ปัจจุบันผู้ที่ต้องการใช้ TPU ยังต้องเช่าใช้งานผ่าน Google Cloud เท่านั้น แต่นักวิเคราะห์จาก Bloomberg Intelligence มองว่า ดีลของ Anthropic ทำให้มีความเป็นไปได้สูงที่ Google จะขยายบริการ TPU ไปสู่ระบบ Cloud อื่น ๆ ในอนาคตด้วย

อย่างไรก็ตาม ยังไม่มีใคร (รวมถึง Google เอง) ที่มองว่า TPU ของ Google จะมาแทนที่ GPU ของ Nvidia  ได้ทั้งหมดในตอนนี้ เนื่องจากความเร็วในการพัฒนา AI ทำให้สิ่งนั้นยังเป็นไปไม่ได้ Nvidia ยังคงนำหน้าทั้งอุตสาหกรรม และแม้แต่ Google เอง หรือบริษัทที่เซ็นสัญญากับ TPU ก็ยังลงทุนซื้อ GPU เพิ่ม

Gaurav Gupta นักวิเคราะห์จาก Gartner กล่าวว่า “Google ยังคงเป็นหนึ่งในลูกค้ารายใหญ่ที่สุดของ Nvidia แม้จะมีชิปเป็นของตัวเอง เพราะต้องรักษาความยืดหยุ่นให้กับลูกค้า หากอัลกอริทึมหรือโมเดลของลูกค้าเปลี่ยน GPU ก็ยังเหมาะสมกว่าในการรองรับรูปแบบงานที่หลากหลาย”


ที่มา: Bloomberg, The Information, CNBC


ติดตามเพจ Facebook: Thairath Money ได้ที่ลิงก์นี้ - https://www.facebook.com/ThairathMoney



Author

กองบรรณาธิการ

กองบรรณาธิการ