Nvidia เปิดตัว Groq 3 ชิป AI สาย Inference พร้อม Vera CPU ท้าชน Intel-AMD ใน GTC 2026


Nvidia เปิดเวทีงาน Nvidia GTC 2026 ที่เมืองซานโฮเซ สหรัฐอเมริกา ด้วยการประกาศชิปและแพลตฟอร์มใหม่หลายรายการสำหรับศูนย์ข้อมูล AI โดยไฮไลต์สำคัญคือ Groq 3 ชิปประมวลผล AI สำหรับงาน Inference และระบบเซิร์ฟเวอร์ Vera CPU rack ที่ออกแบบมาเพื่อแข่งขันกับโซลูชันจาก Intel และ AMD โดยตรง

การเปิดตัวครั้งนี้สะท้อนทิศทางสำคัญของตลาด AI ที่กำลังเปลี่ยนจากการแข่งขันด้านการ ฝึกโมเดล (Training) ไปสู่การ รันโมเดลจริง (Inference) ซึ่งเป็นขั้นตอนที่เกิดขึ้นทุกครั้งที่ผู้ใช้ส่งคำถามไปยังระบบ AI

Groq 3 ชิป AI สำหรับยุค Inference

ชิป Groq 3 ถูกพัฒนาในรูปแบบ Language Processing Unit (LPU) ที่ออกแบบมาเฉพาะสำหรับการรันโมเดล AI ขนาดใหญ่ เช่น โมเดลที่อยู่เบื้องหลังแชตบอตอย่าง ChatGPT, Claude และ Gemini

ก่อนหน้านี้ Nvidia ใช้ GPU เป็นหลัก ซึ่งสามารถทั้งฝึกและรันโมเดลได้ แต่เมื่อความต้องการใช้งาน AI จริงเพิ่มขึ้น การมีชิปที่ออกแบบมาเพื่อ Inference โดยเฉพาะ กลายเป็นสิ่งสำคัญ

Groq 3 จึงถูกพัฒนาขึ้นเพื่อให้ ประมวลผล Inference ได้เร็วขึ้น ใช้พลังงานต่อการประมวลผลต่ำลง และรองรับโมเดล AI ขนาดใหญ่ระดับ Trillion-parameter

ดีลนี้ยังเป็นผลต่อเนื่องจากการที่ Nvidia ลงนามข้อตกลงมูลค่าราว 20,000 ล้านดอลลาร์ เพื่อไลเซนส์เทคโนโลยีจาก Groq และดึงทีมผู้ก่อตั้ง รวมถึง Jonathan Ross และ Sunny Madra เข้าร่วมกับบริษัทเมื่อเดือนธันวาคมที่ผ่านมา

'LPX' เซิร์ฟเวอร์ AI ที่รวม LPU และ GPU

เพื่อใช้ศักยภาพของชิปใหม่ Nvidia เปิดตัวแพลตฟอร์ม Groq 3 LPX ซึ่งเป็นเซิร์ฟเวอร์แร็กที่บรรจุ Groq 3 LPU จำนวน 128 ตัวในระบบเดียว

เมื่อใช้งานร่วมกับระบบ Vera Rubin NVL72 rack ของ Nvidia บริษัทระบุว่าสามารถให้ประสิทธิภาพที่สูงขึ้นอย่างมาก โดย Throughput สูงขึ้นถึง 35 เท่าต่อพลังงาน 1 เมกะวัตต์ และโอกาสสร้างรายได้จาก AI เพิ่มขึ้นถึง 10 เท่า

โดยสถาปัตยกรรม LPX ถูกออกแบบมาเพื่อรองรับ โมเดล AI ระดับ trillion parameters และ Context window ระดับล้านโทเคน ซึ่งกำลังเป็นมาตรฐานใหม่ของโมเดล AI ขนาดใหญ่

'Vera CPU rack' Nvidia บุกตลาด CPU เซิร์ฟเวอร์

นอกจากชิป AI ใหม่ Nvidia ยังเปิดตัว Vera CPU rack สำหรับศูนย์ข้อมูล AI โดยใช้สถาปัตยกรรม Vera Rubin superchip

Superchip นี้ประกอบด้วย 1 Vera CPU และ 2 Rubin GPUs ซึ่ง Nvidia ตั้งเป้าให้เป็นระบบที่แข่งขันกับแพลตฟอร์มเซิร์ฟเวอร์จาก Intel และ AMD โดยตรง

เกมใหม่ของสงคราม AI Data Center

การเปิดตัว Groq 3 และ Vera CPU rack สะท้อนว่า Nvidia กำลังขยายบทบาทจากผู้ผลิต GPU สำหรับ AI training ไปสู่การเป็นผู้ให้บริการโครงสร้างพื้นฐาน AI data center แบบครบวงจร

ในขณะที่การแข่งขันด้าน AI เริ่มเปลี่ยนจากการสร้างโมเดล ไปสู่การ รันโมเดลให้มีต้นทุนต่ำและเร็วที่สุด ชิปสำหรับ Inference จึงกลายเป็นสนามแข่งขันใหม่ของอุตสาหกรรมเซมิคอนดักเตอร์

และการเปิดตัวครั้งนี้ในงาน GTC 2026 แสดงให้เห็นว่า Nvidia ต้องการรักษาตำแหน่งผู้นำในยุค AI Infrastructure ที่กำลังเติบโตอย่างรวดเร็วทั่วโลก

อ้างอิง: Nvidia

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

NVIDIA จับมือ 8 พันธมิตร ตั้ง ‘Nemotron Coalition’ เพื่อสร้างโมเดล Open Source ขั้นสูง ให้องค์กรและนักพัฒนาทั่วโลกได้ใช้งาน

NVIDIA เปิดตัว Nemotron Coalition ผนึกกำลัง 8 พันธมิตร AI ระดับโลกอย่าง Mistral AI และ Perplexity ร่วมแชร์ข้อมูลและขุมพลังพัฒนา Open Frontier Model ดันโปรเจกต์แรกเตรียมคลอด Nemotro...

Responsive image

Nvidia เปิดตัว NemoClaw เพื่อเป็นชุดเกราะให้ OpenClaw

Nvidia เปิดตัว NemoClaw แพลตฟอร์ม AI Agent ระดับ Enterprise ที่ออกแบบมาเพื่อเสริมเกราะความปลอดภัยให้กับ OpenClaw โดยเฉพาะ ปลดล็อกให้ทุกธุรกิจใช้งานเอไอได้อย่างมั่นใจ ข้อมูลไม่รั่วไ...

Responsive image

3 คน 3 Key Takeaways หนุน SMEs ไทยสู่ Smart Industry ดันทั้ง Productivity และ GDP เพิ่ม โดย เอสซีจีกับเครือข่าย และภาครัฐ

Key Takeaways จากงานสัมมนา 'อุตสาหกรรมไทยก้าวกระโดด โตไปด้วยกัน...SMART INDUSTRY' ที่เอสซีจีกับเครือข่าย และภาครัฐ เผยแนวทางหนุน SMEs ไทยพลิกโฉมสู่ Smart Industry...