
ยุคที่ AI Agent กำลังก้าวข้ามจาก "แชตบอทตอบคำถาม" ไปสู่ "เพื่อนร่วมงานที่ลงมือทำงานจริง" ความร่วมมือระหว่าง OpenAI กับ NVIDIA ครั้งล่าสุดอาจเป็นภาพชัดที่สุดที่บอกว่า Enterprise AI ตัวจริงควรหน้าตาเป็นยังไง เมื่อ Frontier Model ระดับโลกถูกวางลงบนชิปที่ออกแบบมาคู่กัน แล้วผ่านการทดสอบจริงในองค์กรขนาดหมื่นคนพร้อมกัน
OpenAI ประกาศเปิดตัว GPT-5.5 โมเดลปัญญาประดิษฐ์ระดับ Frontier ตัวล่าสุด ที่พัฒนาต่อยอดด้านการเขียนโค้ด การควบคุมคอมพิวเตอร์ (Computer Use) และการวิจัยเชิงลึก โดย NVIDIA ได้รับสิทธิ์ Early Access นำโมเดลตัวนี้มาขับเคลื่อน Codex ซึ่งเป็น Agentic Coding Application ของ OpenAI แล้วเปิดให้พนักงาน NVIDIA กว่า 10,000 คนทั่วโลกใช้งานก่อนการเปิด General Availability หลายสัปดาห์ ทั้งหมดรันบนระบบ GB200 NVL72 Rack-Scale Systems ของ NVIDIA เอง
GPT-5.5 ถือเป็น Frontier Model รุ่นใหม่ที่ OpenAI ปล่อยออกมาห่างจาก GPT-5.4 ไม่ถึง 2 เดือน โดยจุดเน้นหลักอยู่ที่การยกระดับความสามารถด้านการเขียนโค้ด การใช้งานเครื่องมือต่าง ๆ บนคอมพิวเตอร์ และการวิจัยที่ลึกกว่าเดิม OpenAI ทยอยเปิดให้ผู้ใช้แบบเสียเงินทั้งระดับ Plus, Pro, Business และ Enterprise เข้าถึงได้ทั้งบน ChatGPT และ Codex ซึ่งเป็นแอปพลิเคชันสำหรับนักพัฒนาโดยตรง
Sam Altman ซีอีโอของ OpenAI ออกมาให้ความเห็นว่ารู้สึก "ตื่นเต้นมาก" หลังเห็นการทดสอบใช้งานทั่วทั้งองค์กรของ NVIDIA ขณะที่ Jensen Huang ซีอีโอ NVIDIA ส่งอีเมลถึงพนักงานทั่วบริษัท พร้อมประโยคเด็ดที่กลายเป็นไวรัลว่า "Chatbots answer questions. Agents do work." (แชตบอทตอบคำถาม แต่ Agent ลงมือทำงาน) และส่งสารถึง Altman แบบติดตลกว่า "Fire up those Blackwells. We need more tokens!"
NVIDIA ระบุว่าวิศวกรของบริษัทได้ใช้งาน GPT-5.5 ผ่าน Codex มาแล้วหลายสัปดาห์ และผลลัพธ์ที่วัดผลได้ก็ชัดเจนมาก รอบของการ Debug ที่เคยกินเวลาเป็นวัน ๆ ลดลงเหลือเพียงไม่กี่ชั่วโมง การทดลอง (Experiment) ในโค้ดเบสที่ซับซ้อนแบบหลายไฟล์ที่เคยใช้เวลาเป็นสัปดาห์ ตอนนี้คืบหน้าได้เพียงข้ามคืน ทีมพัฒนาเริ่มสามารถส่งมอบฟีเจอร์แบบ End-to-End จากแค่การพิมพ์คำสั่งภาษาธรรมชาติ (Natural Language Prompt) พร้อมความเสถียรที่ดีขึ้นและรอบการแก้ไขที่ลดลงเมื่อเทียบกับโมเดลรุ่นก่อนหน้า
การเปิดให้ใช้งานครั้งนี้ครอบคลุมพนักงานทุกสายงาน ไม่ใช่แค่วิศวกร แต่รวมถึง Product, Legal, Marketing, Finance, Sales, HR, Operations และทีม Developer Programs ซึ่งสะท้อนแนวคิดของ NVIDIA ที่มอง Codex ว่าเป็น AI Agent ที่ทำงานได้จริง ไม่ใช่แค่เครื่องมือสำหรับนักพัฒนา
หัวใจของการ Deploy ครั้งนี้อยู่ที่ระบบ GB200 NVL72 Rack-Scale Systems ของ NVIDIA ที่ทำให้ Inference ของ Frontier Model อยู่ในระดับที่คุ้มค่าทางเศรษฐกิจสำหรับองค์กรขนาดใหญ่ NVIDIA อ้างว่าระบบนี้ให้ต้นทุนต่อล้าน Token ต่ำกว่าระบบรุ่นก่อนหน้าถึง 35 เท่า และมีอัตรา Token Output ต่อวินาทีต่อเมกะวัตต์สูงกว่าเดิมถึง 50 เท่า ซึ่งเป็นตัวเลขที่เปลี่ยนสมการของการนำ AI มาใช้ในระดับองค์กรไปอย่างสิ้นเชิง
ตัวเลขเหล่านี้ตั้งอยู่บนคลัสเตอร์ GB200 NVL72 ขนาด 100,000 GPU ซึ่งเป็น Cluster แรกที่ OpenAI กับ NVIDIA ร่วมกัน Bring-Up ขึ้นมา และทำสถิติด้านความเสถียรของระบบในระดับ Frontier Scale ผ่านการรัน Training Run ขนาดใหญ่หลายรอบ จากความร่วมมือนี้ OpenAI ยังประกาศแผนการ Deploy ระบบของ NVIDIA รวมกว่า 10 กิกะวัตต์ ซึ่งเกี่ยวข้องกับ GPU จำนวนหลายล้านตัวสำหรับโครงสร้างพื้นฐาน AI รุ่นต่อไป
จุดที่ทำให้ Deployment ครั้งนี้แตกต่างจากการนำ AI มาใช้ในองค์กรทั่วไป คือการที่ NVIDIA ออกแบบ Security ตั้งแต่ระดับโครงสร้างพื้นฐาน พนักงานแต่ละคนได้รับ Cloud Virtual Machine (VM) ส่วนตัวสำหรับใช้รัน Agent ของตัวเองในรูปแบบ Sandbox ที่แยกขาดจากระบบหลัก แอป Codex บนเครื่องของผู้ใช้จะเชื่อมต่อกับ VM ที่ได้รับอนุมัติผ่าน Secure Shell (SSH) ทำให้ Agent ทำงานกับข้อมูลจริงของบริษัทได้ โดยที่ข้อมูลไม่ออกไปข้างนอก
นโยบาย Zero-Data Retention ครอบคลุมทั้งการ Deploy นี้ พร้อมกำหนดให้ Agent เข้าถึงระบบ Production ได้เพียงสิทธิ์อ่านอย่างเดียว (Read-Only) ผ่าน Command-Line Interface และชุดเครื่องมือที่เรียกว่า Skills ซึ่งเป็น Agentic Toolkit ที่ NVIDIA ใช้รัน Automation Workflow ภายในบริษัทอยู่แล้ว สถาปัตยกรรมแบบนี้ทำให้ Agent มีพลังเต็มที่แต่ยังคงตรวจสอบย้อนกลับได้ครบ (Full Auditability) ซึ่งเป็นโจทย์ใหญ่ของการนำ AI Agent มาใช้ในองค์กรจริง
นอกจากนี้ระบบยังรองรับงานที่รันต่อเนื่องเกิน 24 ชั่วโมงผ่านฟีเจอร์ที่เรียกว่า Compaction ซึ่งช่วยบีบอัด Context เพื่อให้งานยาว ๆ ยังอยู่ในขอบเขตของ Memory ที่กำหนด
การเปิดตัว GPT-5.5 และการ Rollout Codex ครั้งนี้ ไม่ใช่ดีลใหม่แกะกล่อง แต่เป็นบทล่าสุดของความร่วมมือกว่า 10 ปีระหว่าง NVIDIA กับ OpenAI ที่เริ่มต้นในปี 2016 ตอนที่ Jensen Huang นำเครื่อง NVIDIA DGX-1 ซึ่งเป็น AI Supercomputer เครื่องแรกไปส่งมอบให้ OpenAI ที่ซานฟรานซิสโกด้วยตัวเอง
ตั้งแต่นั้นมา ทั้งสองบริษัททำงานในฐานะพาร์ทเนอร์ Co-Design ตั้งแต่ระดับ Silicon โดย OpenAI ป้อน Feedback ที่ส่งผลโดยตรงต่อ Roadmap ฮาร์ดแวร์ของ NVIDIA และได้สิทธิ์เข้าถึงสถาปัตยกรรมใหม่ ๆ ก่อนใคร NVIDIA ยังเดินหน้าลงทุนใน OpenAI ระดับ 30,000 ล้านดอลลาร์ ซึ่งเป็นรอบลงทุนสำคัญก่อนที่ OpenAI จะเดินหน้าสู่การเป็นบริษัทมหาชนในอนาคต
สิ่งที่ NVIDIA แสดงให้เห็นในการ Deploy ครั้งนี้ คือภาพของ Enterprise AI ที่ไม่ใช่แค่การเปิด ChatGPT ให้พนักงานใช้ แต่เป็นการวาง AI Agent ลงในโครงสร้างพื้นฐานขององค์กรในฐานะ "เพื่อนร่วมงาน" ที่ปลอดภัย ตรวจสอบได้ และวัดผลทางธุรกิจได้จริง ด้วยการที่ Frontier Model Vendor กับผู้นำด้าน Silicon มาร่วมกัน Co-Design ทั้ง Stack ตั้งแต่ GPU จนถึงตัว Agent
ตอนนี้ GPT-5.5 ทยอยเปิดให้ผู้ใช้ระดับ Plus, Pro, Business และ Enterprise ของ OpenAI ใช้งานแล้วทั้งบน ChatGPT และ Codex ส่วนการ Rollout ภายใน NVIDIA นั้นครอบคลุมพนักงานทั่วทั้งองค์กรเรียบร้อย
ที่มา: NVIDIA Blog, OpenAI
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด