นักวิจัยสหรัฐฯ สร้างคู่แข่ง AI จีน DeepSeek ด้วยต้นทุนแค่ 50 ดอลลาร์สหรัฐฯ

ทีมนักวิจัยจาก Stanford และ University of Washington สามารถฝึกโมเดล AI ด้านการให้เหตุผล (Reasoning) ด้วยต้นทุนไม่ถึง $50 หรือประมาณ 1,600 บาทผ่าน cloud compute credits (เครดิตประมวลผลบนคลาวด์) ตามรายงานวิจัยที่เผยแพร่เมื่อวันศุกร์ที่ผ่านมา

โมเดลที่พัฒนาขึ้นมีชื่อว่า s1 และทำงานได้ใกล้เคียงกับโมเดล reasoning ชั้นนำ เช่น o1 ของ OpenAI และ R1 ของ DeepSeek โดยผ่านการทดสอบความสามารถด้านคณิตศาสตร์และการเขียนโค้ด ปัจจุบัน s1 พร้อมให้ใช้งานบน GitHub พร้อมทั้งโค้ดและชุดข้อมูลที่ใช้ในการฝึก

พัฒนา s1 อย่างไร ถึงได้ต้นทุนที่ถูกขนาดนี้

ทีมวิจัยเริ่มต้นด้วย base model (โมเดลพื้นฐาน) ที่มีอยู่ในตลาด และปรับแต่งโดยใช้กระบวนการ Distillation ซึ่งเป็นเทคนิคการสกัดความสามารถด้านการให้เหตุผลจากโมเดล AI อื่นๆ ผ่านการฝึกจากคำตอบของโมเดลต้นแบบ

นักวิจัยเปิดเผยว่า s1 ได้รับการกลั่นมาจาก Gemini 2.0 Flash Thinking Experimental ซึ่งเป็นโมเดลด้านการให้เหตุผลของ Google เทคนิคเดียวกันนี้เคยถูกใช้โดยทีมนักวิจัยจาก Berkeley ในการสร้างโมเดล AI ด้านการให้เหตุผล ด้วยงบประมาณประมาณ 450 ดอลลาร์สหรัฐฯ เมื่อเดือนที่แล้ว

แม้ว่า Google จะเปิดให้ใช้งาน Gemini 2.0 Flash Thinking Experimental ได้ฟรีผ่านแพลตฟอร์ม Google AI Studio (โดยมีข้อจำกัดรายวัน) แต่ข้อกำหนดของ Google ห้ามการ reverse-engineering (วิศวกรรมย้อนกลับ) เพื่อนำไปพัฒนาโมเดลแข่งกับบริการ AI ของบริษัท

ทีมวิจัยใช้โมเดลพื้นฐานจาก Qwen ซึ่งเป็น AI Lab ของ Alibaba ที่เปิดให้ดาวน์โหลดฟรี จากนั้นพวกเขาสร้าง ชุดข้อมูลเพียง 1,000 คำถาม โดยแต่ละคำถามมีคำตอบ พร้อมกระบวนการคิดที่ได้จาก Gemini 2.0 Flash Thinking Experimental

TechCrunch รายงานว่า ตามที่ Niklas Muennighoff นักวิจัยจาก Stanford บอก การฝึก s1 ใช้เวลาไม่ถึง 30 นาที โดยรันบน 16 Nvidia H100 GPUs และมีค่าใช้จ่ายเพียง 20 ดอลลาร์สหรัฐฯ เท่านั้น 

เทคนิคใหม่ของ s1

นักวิจัยของ s1 ต้องการหาแนวทางที่ง่ายที่สุดในการสร้าง reasoning performance (ความสามารถด้านเหตุผล) และ test-time scaling (ความสามารถในการเพิ่มเวลาคิดของ AI ก่อนตอบคำถาม) ซึ่งเป็นหนึ่งในนวัตกรรมของ OpenAI o1 ที่ DeepSeek และ AI Lab อื่น ๆ กำลังพยายามเลียนแบบ

งานวิจัยชี้ให้เห็นว่า โมเดล reasoning สามารถถูกกลั่นด้วยชุดข้อมูลขนาดเล็ก ผ่านกระบวนการที่เรียกว่า Supervised Fine-Tuning (SFT) หรือการฝึก AI ให้เลียนแบบพฤติกรรมเฉพาะจากชุดข้อมูล ซึ่ง SFT มีต้นทุนต่ำกว่าการใช้ Reinforcement Learning (RL) ซึ่งเป็นวิธีที่ DeepSeek ใช้สร้างโมเดล R1 เพื่อแข่งขันกับ OpenAI o1

แต่สุดท้ายแล้วแม้ว่าการใช้ Distillation จะช่วยสร้างโมเดล AI ทรงพลังได้ในราคาถูก แต่มันยังไม่สามารถสร้าง นวัตกรรมใหม่ที่เหนือกว่าโมเดลปัจจุบัน ได้ ดังนั้น การลงทุนระดับมหาศาลก็อาจยังคงจำเป็นเพื่อขยายขีดจำกัดของ AI ต่อไป

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

2026 คนไทยแห่กินอะไร รวม Data ที่ร้านอาหารต้องรู้ปีนี้ งานประกาศรางวัล LINE MAN Wongnai Users’ Choice Best of 2026

เจาะลึก Big Data 26 ล้านคนจากงาน LINE MAN Wongnai Users’ Choice 2026 สัญญาณของ Frontier Restaurant และการปั้นแบรนด์ไทยสู่ระดับโลก...

Responsive image

บริษัทไทยลงทุนพุ่ง 86% ทะลุ 6.7 แสนล้านบาท บีโอไอ ชี้เอกชนไทยพร้อมสู่อุตสาหกรรมยุคใหม่

นายนฤตม์ เทอดสถีรศักดิ์ เลขาธิการคณะกรรมการส่งเสริมการลงทุน (บีโอไอ) เปิดเผยว่า นอกเหนือจากบริษัทต่างชาติที่เข้ามาลงทุนในประเทศไทยเป็นจำนวนมากแล้ว ผู้ประกอบการไทยก็มีบทบาทสำคัญในกา...

Responsive image

บีโอไอบุกเซี่ยงไฮ้ ขึ้นเวที SEMICON China 2026 ดึง 5 บริษัทชิปชั้นนำจีนลงทุนไทย

บีโอไอ จัดโรดโชว์ ณ นครเซี่ยงไฮ้ สาธารณรัฐประชาชนจีน ระหว่างวันที่ 25-26 มีนาคม 2569 ร่วมกับ สมาคมการค้าอุตสาหกรรมไทยเซมิคอนดักเตอร์ (THSIA) เพื่อเข้าร่วมงาน SEMICON China 2026 งาน...