Nvidia เปิดเวทีงาน Nvidia GTC 2026 ที่เมืองซานโฮเซ สหรัฐอเมริกา ด้วยการประกาศชิปและแพลตฟอร์มใหม่หลายรายการสำหรับศูนย์ข้อมูล AI โดยไฮไลต์สำคัญคือ Groq 3 ชิปประมวลผล AI สำหรับงาน Inference และระบบเซิร์ฟเวอร์ Vera CPU rack ที่ออกแบบมาเพื่อแข่งขันกับโซลูชันจาก Intel และ AMD โดยตรง
การเปิดตัวครั้งนี้สะท้อนทิศทางสำคัญของตลาด AI ที่กำลังเปลี่ยนจากการแข่งขันด้านการ ฝึกโมเดล (Training) ไปสู่การ รันโมเดลจริง (Inference) ซึ่งเป็นขั้นตอนที่เกิดขึ้นทุกครั้งที่ผู้ใช้ส่งคำถามไปยังระบบ AI

ชิป Groq 3 ถูกพัฒนาในรูปแบบ Language Processing Unit (LPU) ที่ออกแบบมาเฉพาะสำหรับการรันโมเดล AI ขนาดใหญ่ เช่น โมเดลที่อยู่เบื้องหลังแชตบอตอย่าง ChatGPT, Claude และ Gemini
ก่อนหน้านี้ Nvidia ใช้ GPU เป็นหลัก ซึ่งสามารถทั้งฝึกและรันโมเดลได้ แต่เมื่อความต้องการใช้งาน AI จริงเพิ่มขึ้น การมีชิปที่ออกแบบมาเพื่อ Inference โดยเฉพาะ กลายเป็นสิ่งสำคัญ
Groq 3 จึงถูกพัฒนาขึ้นเพื่อให้ ประมวลผล Inference ได้เร็วขึ้น ใช้พลังงานต่อการประมวลผลต่ำลง และรองรับโมเดล AI ขนาดใหญ่ระดับ Trillion-parameter
ดีลนี้ยังเป็นผลต่อเนื่องจากการที่ Nvidia ลงนามข้อตกลงมูลค่าราว 20,000 ล้านดอลลาร์ เพื่อไลเซนส์เทคโนโลยีจาก Groq และดึงทีมผู้ก่อตั้ง รวมถึง Jonathan Ross และ Sunny Madra เข้าร่วมกับบริษัทเมื่อเดือนธันวาคมที่ผ่านมา
เพื่อใช้ศักยภาพของชิปใหม่ Nvidia เปิดตัวแพลตฟอร์ม Groq 3 LPX ซึ่งเป็นเซิร์ฟเวอร์แร็กที่บรรจุ Groq 3 LPU จำนวน 128 ตัวในระบบเดียว
เมื่อใช้งานร่วมกับระบบ Vera Rubin NVL72 rack ของ Nvidia บริษัทระบุว่าสามารถให้ประสิทธิภาพที่สูงขึ้นอย่างมาก โดย Throughput สูงขึ้นถึง 35 เท่าต่อพลังงาน 1 เมกะวัตต์ และโอกาสสร้างรายได้จาก AI เพิ่มขึ้นถึง 10 เท่า
โดยสถาปัตยกรรม LPX ถูกออกแบบมาเพื่อรองรับ โมเดล AI ระดับ trillion parameters และ Context window ระดับล้านโทเคน ซึ่งกำลังเป็นมาตรฐานใหม่ของโมเดล AI ขนาดใหญ่
นอกจากชิป AI ใหม่ Nvidia ยังเปิดตัว Vera CPU rack สำหรับศูนย์ข้อมูล AI โดยใช้สถาปัตยกรรม Vera Rubin superchip
Superchip นี้ประกอบด้วย 1 Vera CPU และ 2 Rubin GPUs ซึ่ง Nvidia ตั้งเป้าให้เป็นระบบที่แข่งขันกับแพลตฟอร์มเซิร์ฟเวอร์จาก Intel และ AMD โดยตรง
การเปิดตัว Groq 3 และ Vera CPU rack สะท้อนว่า Nvidia กำลังขยายบทบาทจากผู้ผลิต GPU สำหรับ AI training ไปสู่การเป็นผู้ให้บริการโครงสร้างพื้นฐาน AI data center แบบครบวงจร
ในขณะที่การแข่งขันด้าน AI เริ่มเปลี่ยนจากการสร้างโมเดล ไปสู่การ รันโมเดลให้มีต้นทุนต่ำและเร็วที่สุด ชิปสำหรับ Inference จึงกลายเป็นสนามแข่งขันใหม่ของอุตสาหกรรมเซมิคอนดักเตอร์
และการเปิดตัวครั้งนี้ในงาน GTC 2026 แสดงให้เห็นว่า Nvidia ต้องการรักษาตำแหน่งผู้นำในยุค AI Infrastructure ที่กำลังเติบโตอย่างรวดเร็วทั่วโลก
อ้างอิง: Nvidia
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด