สตาร์ทอัพ ‘Orbital’ เตรียมสร้าง Data Center บนอวกาศ ตั้งเป้ายิงดาวเทียม GPU ตัวแรกปี 2027 ผ่านจรวด Falcon 9 ของ SpaceX

Orbital Inc. สตาร์ทอัพจาก Los Angeles ก้าวออกจากโหมด Stealth กลางเดือนเมษายนที่ผ่านมา พร้อมประกาศแผนสร้างศูนย์ข้อมูล (Data Center) บนวงโคจรอวกาศเพื่อรองรับงาน AI Inference โดยได้รับเงินทุนจาก Andreessen Horowitz (A16z) แนวคิดของบริษัทคือใช้พลังงานแสงอาทิตย์ที่มีอยู่อย่างมหาศาลในอวกาศมาขับเคลื่อน GPU เพื่อตอบโจทย์การเติบโตของ Large Language Model ที่กำลังทำให้กริดไฟฟ้าบนโลกตึงตัวขึ้นเรื่อยๆ

"กำลังการผลิตบนโลกไม่พอแล้ว ทางเดียวคือต้องขึ้นไปข้างบน พลังงานแสงอาทิตย์ในอวกาศมีอย่างเหลือเฟือ แต่ยังไม่มีใครเอามาใช้" 

Euwyn Poon ผู้ก่อตั้งและซีอีโอของ Orbital กล่าว

ดาวเทียมขนาดเล็กนับหมื่นดวงในวงโคจรต่ำ

วิสัยทัศน์ของ Orbital คือสร้างเครือข่ายดาวเทียมขนาดเล็กในวงโคจรต่ำของโลก (Low Earth Orbit) ที่ทำงานเชื่อมโยงกันเป็นโครงข่าย แต่ละดวงจะติดตั้ง GPU Server Rack ที่จ่ายไฟด้วยแผง Solar Panel ขนาดราวสนามเทนนิส คู่กับแผงระบายความร้อนแบบ Radiative Cooling ขนาดใกล้เคียงกัน เป้าหมายระยะยาวคือมีดาวเทียมราว 10,000 ดวง แต่ละดวงขนาดเท่าตู้เย็นและจ่ายไฟได้ 100 กิโลวัตต์ ก่อร่างเป็น Distributed Cloud ในลักษณะคล้ายกับโครงการ AI Sat Mini ของ SpaceX

การทดสอบจริงครั้งแรกของ Orbital จะเกิดขึ้นในปี 2027 โดยบริษัทเตรียมส่งดาวเทียมต้นแบบขึ้นไปกับจรวด Falcon 9 ของ SpaceX เพื่อพิสูจน์ว่า GPU สามารถทำงานได้จริงในวงโคจร และทดลองรันงาน Commercial Inference ก่อนหน้านี้ Starcloud คู่แข่งอีกรายก็เพิ่งทดสอบในลักษณะเดียวกันเมื่อปีที่แล้ว สิ่งที่ทำให้ Orbital ต่างคือการออกแบบที่จับคู่ปัญหากับโซลูชันให้ลงตัว คือใช้ดาวเทียมขนาดเล็กที่ออกแบบมาเพื่อรัน Inference โดยเฉพาะ ซึ่งจะได้ประโยชน์จากต้นทุนการปล่อยจรวดที่ถูกลง อย่างไรก็ตามบริษัทยังต้องเผชิญกับโจทย์ใหญ่เหมือนกับทุกคนที่อยากทำ Data Center ในอวกาศ ทั้งเรื่องความร้อนที่ต้องระบายผ่านแผง Radiator ขนาดใหญ่ การแผ่รังสีในวงโคจรต่ำที่กัดเซาะอุปกรณ์คอมพิวเตอร์ และการซ่อมบำรุงที่ทำได้ยากและมีต้นทุนสูง

ทำไม Orbital เลือก Inference ไม่ใช่ Training

Euwyn Poon อธิบายว่าการเน้นเครือข่ายดาวเทียมขนาดเล็กที่กระจายการทำงาน Inference ผ่าน GPU แบบ Independent Nodes แทนระบบขนาดใหญ่ที่ผูกพันกันแน่น ทำให้แผนนี้เป็นไปได้จริงในทางปฏิบัติ การ Train โมเดล AI ขนาดใหญ่ปกติแล้วต้องพึ่ง GPU Cluster ที่ถูกรีดประสิทธิภาพการประมวลผลให้สูงที่สุด ส่วนงาน Inference ใช้ทรัพยากรต่อ Request น้อยกว่ามาก สามารถรันบน GPU จำนวนไม่กี่ตัว และกระจายข้ามระบบได้ง่ายกว่า การจำกัดดาวเทียมแต่ละดวงไว้ที่ 100 กิโลวัตต์จึงทำให้การออกแบบเรียบง่าย Euwyn Poon บอกว่า "มันเรียบง่ายมาก วิศวกรน่าจะชื่นชอบแนวคิดนี้"

ในการออกแบบของ Orbital เมื่อผู้ใช้ส่งคำสั่ง เช่น ถาม ChatGPT ให้วิเคราะห์ข้อมูล คำสั่งนั้นจะถูกส่งจาก Data Center บนโลกไปยัง Ground Station ซึ่งเป็นสถานีบนพื้นดินที่เชื่อมดาวเทียมเข้ากับอินเทอร์เน็ต จากนั้นข้อมูลจะวิ่งขึ้นไปหาดาวเทียม โดยระหว่างดาวเทียมด้วยกันจะคุยกันผ่าน Optical Interlinks ที่ใช้แสงเลเซอร์ส่งข้อมูล เพื่อหา GPU ที่ว่างมารับงาน เมื่อประมวลผลเสร็จก็ส่งผลลัพธ์กลับมาให้ผู้ใช้ผ่านเส้นทางเดียวกัน โดยการสื่อสารระหว่าง Ground Station กับดาวเทียมจะเกิดขึ้นเฉพาะตอนที่ดาวเทียมโคจรผ่านระยะเท่านั้น

หากระบบทำงานได้จริง Orbital ตั้งเป้าจับลูกค้ากลุ่ม "Big Model Labs" อย่าง OpenAI และ Anthropic ที่มีโหลด Inference มหาศาล โดยจะเปิดให้เข้าถึงผ่าน API สำหรับซื้อ Token โดยตรง รวมถึงทำดีลกับองค์กรเพื่อย้ายโหลด Inference มาวิ่งบนเครือข่ายในอวกาศแทน

โจทย์วิศวกรรมที่ยังต้องพิสูจน์

Euwyn Poon ยอมรับว่าการรัน Data Center ในอวกาศมีความท้าทายทางเทคนิคหลายข้อ ทั้งรังสีที่อาจกระแทก GPU ทำให้เกิด Bit Flip หรือ Error ในการคำนวณ การจัดการความร้อนที่ทำได้ยากเพราะไม่มีอากาศ ทำให้ระบบต้องอาศัยการแผ่ความร้อนออกสู่อวกาศแทนการระบายความร้อนแบบทั่วไป รวมถึงการซ่อมบำรุงที่แทบเป็นไปไม่ได้หากดาวเทียมเสีย Euwyn Poon บอกว่านี่คือเหตุผลที่การทดสอบในปี 2027 จะเป็นจุดวัดสำคัญในการระบุและแก้ปัญหา "ส่วนหนึ่งของภารกิจคือการเจอกับสิ่งที่เรายังไม่รู้"

Dr. Amit Verma อาจารย์ด้านวิศวกรรมไฟฟ้าจาก Texas A&M University Kingsville ผู้วิจัยด้าน Semiconductor Device Modelling ก็ตั้งคำถามในทิศทางเดียวกัน เขาชี้ว่าการปล่อยดาวเทียมเป็นพันเป็นหมื่นดวงเพิ่มความเสี่ยงในการเสียหายอย่างมหาศาล ขณะที่ตัวเลือกในการซ่อมแซมมีจำกัด อีกทั้งความเหมาะสมในการใช้งานจริงยังขึ้นอยู่กับลักษณะของแอปพลิเคชัน งานบางอย่างเช่น Chatbot หรือระบบแนะนำเนื้อหาสามารถรองรับความหน่วง (Latency) เพิ่มขึ้นได้ เพราะข้อมูลที่วิ่งไปวงโคจรต่ำใช้เวลาราวหลายสิบมิลลิวินาทีในการเดินทาง แต่งานอย่าง Real-time Stock Trading ที่ต้องการความเร็วระดับเสี้ยววินาทีกลับไม่สามารถยอมรับความหน่วงนี้ได้

"ศูนย์ข้อมูลในอวกาศที่ใช้ประมวลผล AI หนักๆ จะต้องเอาชนะปัญหาเรื่องพลังงาน การปล่อย และความน่าเชื่อถือให้ได้ก่อน ถึงจะมีคุณค่าทางปฏิบัติ" 

Orbital เตรียมทดสอบอย่างเข้มข้นก่อนปล่อยจริง โดยกำลังศึกษาเทคนิค Radiation Hardening สำหรับ GPU และระบบ Liquid Cooling ที่ใช้แอมโมเนียส่งความร้อนไปยังแผง Radiator ภายนอก รวมถึงการลดน้ำหนักของระบบเพื่อกดต้นทุนการปล่อยจรวดให้ต่ำลง

แม้จะมีแผนรับมือเหล่านี้ แต่ไทม์ไลน์ของ Orbital ก็ยังท้าทาย Andrew Côté วิศวกรฟิสิกส์เคยเขียนใน Substack ว่า Data Center บนอวกาศคงต้องใช้เวลาอีก 10 ถึง 20 ปีกว่าจะใช้งานได้จริง ในขณะที่ Orbital ตั้งเป้าออกแบบดาวเทียมให้เสร็จในปี 2026 ปล่อยจริงปี 2027 และสร้างโรงงานผลิตใน Los Angeles ภายในปี 2028

ความสามารถในการรันระบบดาวเทียมให้เสถียรในระดับ Scale คือคำถามใหญ่ที่ยังต้องรอคำตอบ เพราะต้นทุนการปล่อยจรวดยังสูงและโจทย์วิศวกรรมก็ซับซ้อน แต่ Poon ยังคงโฟกัสที่โอกาสในระยะยาว "ผมเชื่อว่าความพยายามทางวิศวกรรมของเราจะเริ่มขยับเข้าใกล้การแก้ปัญหาเหล่านี้ได้" เขาบอก

ที่มา: IEEE Spectrum

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

‘Fervo Energy’ สตาร์ทอัพพลังงานความร้อนใต้พิภพ เปิดแผน IPO ระดมทุน $1.3 พันล้าน จุดประกายคลื่นพลังงานสะอาดยุค AI

Fervo Energy สตาร์ทอัพพลังงานความร้อนใต้พิภพยุคใหม่ที่มี Google และ Bill Gates หนุน ยื่น IPO บน Nasdaq ใต้ชื่อย่อ FRVO ระดมทุนสูงสุด 1.3 พันล้านดอลลาร์ ตั้งเป้ามูลค่าบริษัทหลังเข้า...

Responsive image

เด็กแบงก์เบื่องาน Excel-PPTX ลาออกตั้งบริษัท ‘Rogo’ กับเพื่อน 4 ปีต่อมามูลค่าทะลุ 2 พันล้านดอลลาร์!

Rogo Technologies สตาร์ตอัป AI สำหรับ Investment Banking ที่ก่อตั้งโดยอดีต Junior Banker จาก Lazard และ JPMorgan ปิดรอบ Series D 160 ล้านดอลลาร์ นำโดย Kleiner Perkins ดันมูลค่าบริษ...

Responsive image

จากผู้เขียนโค้ดสู่ผู้จัดการ AI รู้จักสตาร์ทอัพ JustPaid ปลุกปั้นวิศวกร AI 7 ชีวิต รันระบบองค์กรอัตโนมัติตลอด 24 ชั่วโมง

สตาร์ทอัพซิลิคอนแวลลีย์ JustPaid ใช้ OpenClaw และ Claude Code สร้างทีม AI เขียนโค้ดแบบอัตโนมัติ 24 ชม. เร็วกว่าคนหลายเท่าตัว อนาคตนักพัฒนาอาจต้องเปลี่ยนเป็นผู้จัดการ AI...