นักวิจัยสหรัฐฯ สร้างคู่แข่ง AI จีน DeepSeek ด้วยต้นทุนแค่ 50 ดอลลาร์สหรัฐฯ

ทีมนักวิจัยจาก Stanford และ University of Washington สามารถฝึกโมเดล AI ด้านการให้เหตุผล (Reasoning) ด้วยต้นทุนไม่ถึง $50 หรือประมาณ 1,600 บาทผ่าน cloud compute credits (เครดิตประมวลผลบนคลาวด์) ตามรายงานวิจัยที่เผยแพร่เมื่อวันศุกร์ที่ผ่านมา

โมเดลที่พัฒนาขึ้นมีชื่อว่า s1 และทำงานได้ใกล้เคียงกับโมเดล reasoning ชั้นนำ เช่น o1 ของ OpenAI และ R1 ของ DeepSeek โดยผ่านการทดสอบความสามารถด้านคณิตศาสตร์และการเขียนโค้ด ปัจจุบัน s1 พร้อมให้ใช้งานบน GitHub พร้อมทั้งโค้ดและชุดข้อมูลที่ใช้ในการฝึก

พัฒนา s1 อย่างไร ถึงได้ต้นทุนที่ถูกขนาดนี้

ทีมวิจัยเริ่มต้นด้วย base model (โมเดลพื้นฐาน) ที่มีอยู่ในตลาด และปรับแต่งโดยใช้กระบวนการ Distillation ซึ่งเป็นเทคนิคการสกัดความสามารถด้านการให้เหตุผลจากโมเดล AI อื่นๆ ผ่านการฝึกจากคำตอบของโมเดลต้นแบบ

นักวิจัยเปิดเผยว่า s1 ได้รับการกลั่นมาจาก Gemini 2.0 Flash Thinking Experimental ซึ่งเป็นโมเดลด้านการให้เหตุผลของ Google เทคนิคเดียวกันนี้เคยถูกใช้โดยทีมนักวิจัยจาก Berkeley ในการสร้างโมเดล AI ด้านการให้เหตุผล ด้วยงบประมาณประมาณ 450 ดอลลาร์สหรัฐฯ เมื่อเดือนที่แล้ว

แม้ว่า Google จะเปิดให้ใช้งาน Gemini 2.0 Flash Thinking Experimental ได้ฟรีผ่านแพลตฟอร์ม Google AI Studio (โดยมีข้อจำกัดรายวัน) แต่ข้อกำหนดของ Google ห้ามการ reverse-engineering (วิศวกรรมย้อนกลับ) เพื่อนำไปพัฒนาโมเดลแข่งกับบริการ AI ของบริษัท

ทีมวิจัยใช้โมเดลพื้นฐานจาก Qwen ซึ่งเป็น AI Lab ของ Alibaba ที่เปิดให้ดาวน์โหลดฟรี จากนั้นพวกเขาสร้าง ชุดข้อมูลเพียง 1,000 คำถาม โดยแต่ละคำถามมีคำตอบ พร้อมกระบวนการคิดที่ได้จาก Gemini 2.0 Flash Thinking Experimental

TechCrunch รายงานว่า ตามที่ Niklas Muennighoff นักวิจัยจาก Stanford บอก การฝึก s1 ใช้เวลาไม่ถึง 30 นาที โดยรันบน 16 Nvidia H100 GPUs และมีค่าใช้จ่ายเพียง 20 ดอลลาร์สหรัฐฯ เท่านั้น 

เทคนิคใหม่ของ s1

นักวิจัยของ s1 ต้องการหาแนวทางที่ง่ายที่สุดในการสร้าง reasoning performance (ความสามารถด้านเหตุผล) และ test-time scaling (ความสามารถในการเพิ่มเวลาคิดของ AI ก่อนตอบคำถาม) ซึ่งเป็นหนึ่งในนวัตกรรมของ OpenAI o1 ที่ DeepSeek และ AI Lab อื่น ๆ กำลังพยายามเลียนแบบ

งานวิจัยชี้ให้เห็นว่า โมเดล reasoning สามารถถูกกลั่นด้วยชุดข้อมูลขนาดเล็ก ผ่านกระบวนการที่เรียกว่า Supervised Fine-Tuning (SFT) หรือการฝึก AI ให้เลียนแบบพฤติกรรมเฉพาะจากชุดข้อมูล ซึ่ง SFT มีต้นทุนต่ำกว่าการใช้ Reinforcement Learning (RL) ซึ่งเป็นวิธีที่ DeepSeek ใช้สร้างโมเดล R1 เพื่อแข่งขันกับ OpenAI o1

แต่สุดท้ายแล้วแม้ว่าการใช้ Distillation จะช่วยสร้างโมเดล AI ทรงพลังได้ในราคาถูก แต่มันยังไม่สามารถสร้าง นวัตกรรมใหม่ที่เหนือกว่าโมเดลปัจจุบัน ได้ ดังนั้น การลงทุนระดับมหาศาลก็อาจยังคงจำเป็นเพื่อขยายขีดจำกัดของ AI ต่อไป

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

เจาะ Tech Policy ของพรรคการเมืองใหญ่ เลือกตั้ง 69

สรุปมัดรวมนโยบายเทคโนโลยีการเลือกตั้ง 69 เจาะลึกวิสัยทัศน์ Digital Transformation ตั้งแต่แนวคิดรัฐแพลตฟอร์ม, AI จับทุจริต, 30 บาทรักษาทุกที่ด้วย AI, ไปจนถึงโครงสร้างพื้นฐาน 5G ของ ...

Responsive image

LinkedIn จัดอันดับ 25 งานโตเร็วในปี 2026 สะท้อนทิศทางตลาดแรงงานยุค AI ใครได้ไปต่อ ใครเริ่มชะลอ และงานแบบไหนที่ตลาดต้องการสูงสุด

รายงาน Jobs on the Rise 2026 จาก LinkedIn เผย 25 งานที่เติบโตเร็วที่สุดในสหรัฐฯ ชี้ชัดว่า AI ครองอันดับ แต่งานโลกจริงยังจำเป็น สายที่ปรึกษาโตแรง และตลาดแรงงานกำลังให้รางวัลกับคนที่...

Responsive image

NIA เผย 3 เทรนด์นวัตกรรม 9 อุตสาหกรรมน่าจับตา ปี 69 พร้อม 4 นโยบายพัฒนาศักยภาพธุรกิจ ขับเคลื่อนเศรษฐกิจไทย

เผย 3 เทรนด์นวัตกรรมแห่งปี รวม 9 อุตสาหกรรมน่าจับตา โดย NIA อาทิ Agentic AI, Carbon Accounting, Pet Economy, Silver Solution พร้อมด้วยนโยบายสนับสนุนผู้ประกอบการไทยในปี 2569...