ในช่วงไม่กี่ปีที่ผ่านมา เราคงคุ้นเคยกับ AI ประเภท Large Language Model (LLM) เช่น ChatGPT หรือ Claude ที่สามารถตอบคำถาม พูดคุย และช่วยแก้ปัญหาได้หลากหลาย แต่ก็ยังมีข้อจำกัดหลายอย่าง โดยเฉพาะในเรื่องการใช้เหตุผลเชิงลึก ที่ต้องอาศัยความเข้าใจจริงๆ ไม่ใช่แค่การท่องจำจากข้อมูลมหาศาล

ล่าสุดนักวิทยาศาสตร์จากบริษัท Sapient ประเทศสิงคโปร์ ได้เสนอโมเดล AI แบบใหม่ที่ชื่อว่า Hierarchical Reasoning Model หรือ HRM ซึ่งออกแบบมาให้คิดใกล้เคียงกับสมองมนุษย์มากขึ้น
HRM (Hierarchical Reasoning Model) คือโมเดล AI ที่เน้น การใช้เหตุผลแบบเป็นลำดับชั้น (hierarchical reasoning) ซึ่งมันเป็นกระบวนการที่ได้แรงบันดาลใจมาจากสมองมนุษย์ที่ทำงานผ่านหลายส่วนร่วมกัน เช่น
HRM ก็ทำงานในลักษณะเดียวกัน โดยแบ่งออกเป็น สองโมดูลหลัก ได้แก่
การทำงานร่วมกันของสองโมดูลนี้ ช่วยให้ HRM สามารถแก้ปัญหาซับซ้อนได้อย่างมีประสิทธิภาพ
LLM แบบเดิม (เช่น ChatGPT): ใช้วิธีที่เรียกว่า Chain-of-Thought (CoT) คือการแตกปัญหายาก ๆ ออกเป็นขั้นตอนเล็ก ๆ เขียนเรียงลำดับเหมือนมนุษย์ค่อย ๆ คิด แต่ข้อเสียคือ ต้องใช้ข้อมูลฝึกจำนวนมาก ใช้เวลาคำนวณนาน และบางครั้งขั้นตอนที่แตกก็ผิดพลาดง่าย
HRM: ไม่ได้แตกปัญหาออกมาเป็นภาษาธรรมชาติ แต่ใช้วิธีคิดทีละรอบสั้นๆ (iterative refinement) โดยแต่ละรอบจะตรวจสอบว่า ควรคิดต่อ หรือส่งคำตอบเลย วิธีนี้ช่วยให้ HRM คิดได้เร็วขึ้น ใช้ข้อมูลน้อยลง แต่ยังแม่นยำกว่า
นักวิทยาศาสตร์ได้ทดสอบ HRM กับ ARC-AGI benchmark ซึ่งออกแบบมาเพื่อวัดว่า AI เข้าใกล้ความฉลาดทั่วไปแบบมนุษย์แค่ไหน ผลคือ HRM ทำได้ 40.3%
ในการทดสอบที่ยากกว่า (ARC-AGI-2) HRM ก็ยังชนะคู่แข่งทั้งหมด นอกจากนี้ HRM ยังสามารถแก้ปัญหาที่ LLM อื่นทำไม่ได้ เช่น ซูโดกุระดับยาก, การหาทางออกในเขาวงกต
แต่แม้ HRM จะทำผลงานได้น่าทึ่ง แต่งานวิจัยนี้ยังไม่ได้ผ่านการตรวจสอบอย่างเป็นทางการ และนักวิจัยภายนอกที่นำไปทดสอบซ้ำก็พบว่า ผลลัพธ์ดีขึ้นส่วนหนึ่งเพราะกระบวนการฝึกมากกว่าตัวโครงสร้าง
พูดง่าย ๆ คือ HRM อาจไม่ได้เก่งขึ้นเพราะเลียนแบบสมองมนุษย์เพียงอย่างเดียว แต่อาจมีเทคนิคเบื้องหลังการฝึกที่ยังไม่ได้ถูกอธิบายอย่างละเอียด
อ้างอิง: livescience
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด