Google เปิดตัว Gemini 3.1 Flash-Lite โมเดล AI ใหม่ เร็วขึ้น 2.5 เท่า เก่งทั้งแปลภาษา เขียนโค้ด UI และแก้ปัญหาสเกลใหญ่ ในราคาที่ถูกลง

Google ได้สร้างแรงสั่นสะเทือนให้วงการปัญญาประดิษฐ์อีกครั้งด้วยการเปิดตัว ‘Gemini 3.1 Flash-Lite’ โมเดล AI ตัวใหม่ล่าสุดในตระกูลซีรีส์ 3 ที่ถูกออกแบบมาเพื่อทลายขีดจำกัดเดิมๆ โดยมุ่งเป้าไปที่กลุ่มนักพัฒนาที่ต้องการประมวลผลงานปริมาณมหาศาลแบบสเกลระดับใหญ่ แต่ยังคงต้องการคุณภาพผลลัพธ์ที่ยอดเยี่ยมในงบประมาณที่ควบคุมได้ ซึ่งในวันนี้ตัวโมเดลได้เปิดให้ทดลองใช้งานแล้วผ่าน Gemini API บน Google AI Studio สำหรับนักพัฒนาทั่วไป และผ่าน Vertex AI สำหรับลูกค้าองค์กร

หั่นต้นทุน ยกระดับความเร็วทะลุขีดจำกัด

จุดเด่นที่ทำให้นักพัฒนาต้องหันมามองโมเดลตัวนี้คือราคาที่เข้าถึงได้ง่ายอย่างเหลือเชื่อ โดยสนนราคาเพียง $0.25 ต่อ 1 ล้าน Input Tokens และ $1.50 ต่อ 1 ล้าน Output Tokens เท่านั้น แต่แม้ราคาจะถูกลง ประสิทธิภาพกลับพุ่งทะยานอย่างน่าสนใจ ข้อมูลจากแพลตฟอร์มทดสอบอย่าง Artificial Analysis ระบุชัดเจนว่า 3.1 Flash-Lite สามารถสร้างโทเค็นแรก หรือ Time to First Answer Token ได้เร็วกว่ารุ่นพี่อย่าง 2.5 Flash ถึง 2.5 เท่า และดันความเร็วในการประมวลผลผลลัพธ์ได้เพิ่มขึ้นถึง 45% ซึ่งความหน่วง (Latency) ที่ต่ำแตะพื้นระดับนี้ คือกุญแจสำคัญที่ทำให้นักพัฒนาสามารถนำไปสร้างแอปพลิเคชันที่โต้ตอบแบบเรียลไทม์ได้อย่างไร้รอยต่อ

ฉลาดล้ำ เอาชนะโมเดลรุ่นพี่อย่างขาดลอย

เรื่องของคุณภาพและตรรกะก็ไม่เป็นสองรองใคร Gemini 3.1 Flash-Lite กวาดคะแนน Elo ไปได้ถึง 1432 บนกระดานจัดอันดับของ Arena.ai และยังทำผลงานได้เหนือกว่าโมเดลในระดับเดียวกันอย่างชัดเจนในการทดสอบสุดหิน ไม่ว่าจะเป็นการกวาดคะแนน 86.9% บนแบบทดสอบ GPQA Diamond และ 76.8% บน MMMU Pro ซึ่งแสดงให้เห็นถึงความสามารถในการประมวลผลข้อมูลหลายรูปแบบ (Multimodal) ที่แม่นยำระดับเหนือชั้น จนสามารถเอาชนะโมเดลรุ่นก่อนหน้าที่ตัวใหญ่กว่าอย่าง 2.5 Flash ไปได้อย่างราบคาบ

ความน่าสนใจที่ซ่อนอยู่ใน 3.1 Flash-Lite คือฟีเจอร์ที่เรียกว่า ‘Thinking levels’ หรือระดับการคิดวิเคราะห์ ที่เปิดโอกาสให้นักพัฒนาสามารถกำหนดความลึกซึ้งในการคิดของ AI ได้ตามความเหมาะสมของงาน หากเป็นงานที่เน้นปริมาณและความเร็ว เช่น การแปลภาษาหรือการคัดกรองเนื้อหา (Content Moderation) ก็สามารถปรับให้ตอบสนองไวเพื่อประหยัดต้นทุน แต่ถ้าเป็นงานที่ซับซ้อนอย่างการเขียนโค้ดสร้าง User Interface การออกแบบแดชบอร์ด หรือการจำลองสถานการณ์ ก็สามารถสั่งให้ AI ใช้เวลา ‘คิด’ ให้ลึกซึ้งขึ้นได้เช่นกัน

สตาร์ทอัพแห่ใช้งาน พิสูจน์แล้วว่าทำได้จริง

ความเก่งกาจนี้ไม่ได้หยุดอยู่แค่ในห้องทดลอง เพราะกลุ่มผู้ใช้งานช่วงแรก (Early-access) รวมถึงบริษัทสายเทคฯ อย่าง Latitude, Cartwheel และ Whering ได้นำ 3.1 Flash-Lite ไปขับเคลื่อนระบบจริงเรียบร้อยแล้ว เสียงตอบรับจากผู้ใช้งานจริงต่างชื่นชมในความสามารถการใช้เหตุผลที่เฉียบคม การจัดการกับข้อมูลซับซ้อนได้อย่างแม่นยำเทียบเท่าโมเดลขนาดใหญ่ รวมถึงการปฏิบัติตามคำสั่งที่เคร่งครัด นี่คืออีกหนึ่งก้าวสำคัญที่น่าจับตามองว่า Gemini 3.1 Flash-Lite จะเข้ามาเป็นตัวแปรสำคัญที่ช่วยต่อยอดนวัตกรรมใหม่ๆ ในวงการดิจิทัลได้อย่างไรในอนาคตอันใกล้นี้

ที่มา: Google Blog

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Reed Hastings ผู้ก่อตั้ง Netflix เตรียมลงจากตำแหน่งกลางปีนี้ ปิดตำนาน 27 ปี ผู้เปลี่ยนโลกการดูหนัง

Reed Hastings ผู้ร่วมก่อตั้งและประธานบอร์ดของ Netflix กำลังจะก้าวลงจากตำแหน่งกรรมการบริษัทที่เขาสร้างขึ้นมาตั้งแต่ต้น หลังจากอยู่กับองค์กรมาอย่างยาวนานกว่า 27 ปี โดยการเปลี่ยนแปลงน...

Responsive image

สวีเดนสั่งยกเลิกหน้าจอในห้องเรียน กลับไปใช้หนังสือและปากกา

สวีเดนประกาศเลิกใช้หน้าจอในเด็กเล็ก กลับไปเน้นอ่านเขียนบนกระดาษเพื่อกู้คะแนน PISA เกิดอะไรขึ้นกับระบบการศึกษาที่เคยดีที่สุดในโลก?...

Responsive image

Opus 4.7 สรุปความเก่งของโมเดลล่าสุดจาก Anthropic คิดเองได้ว่าโค้ดผิดตรงไหน เถียงผู้ใช้ได้ ทำงานลากยาวได้โดยไม่ต้องคอยคุม

ลองนึกภาพว่าถ้าคุณเป็น Developer ที่ต้องเขียนเขียนระบบแปลงข้อความเป็นเสียงพูด (Text-to-Speech) ด้วยภาษา Rust โดยต้องเขียนตั้งแต่ Neural Model, การจัดการประมวลผลระดับฮาร์ดเแวร์, ทำ ...