ในโลกที่ทุกคนเริ่มพูดถึง AGI หรือ Artificial General Intelligence ราวกับเป็นเรื่องปกติ มีไม่กี่คนที่พูดถึงมันจากมุมของ 'คนที่สร้างมันจริง' มานานกว่า 30 ปี และหนึ่งในนั้นคือ Demis Hassabis
บนเวที YC Startup School ล่าสุด Demis Hassabis ไม่ได้ขึ้นมาพร้อม Demo ใหม่หรือประกาศผลิตภัณฑ์ แต่เขาพูดถึงสิ่งที่สำคัญกว่านั้นมาก นั่นคือ เราอยู่ตรงไหนบน Road to AGI? อะไรที่ยังขาด? และถ้า AGI มาถึงราวปี 2030 จริง โลกของ Startup, Science และ Deep Tech จะเปลี่ยนไปอย่างไร?
สิ่งที่ทำให้ Session นี้น่าสนใจ ไม่ใช่แค่เพราะเขาคือคนที่สร้าง AlphaGo, AlphaFold และเพิ่งคว้ารางวัลโนเบลไป แต่เพราะเขาเป็นหนึ่งในไม่กี่คนที่พูดถึงข้อจำกัดของ AI ปัจจุบันแบบตรงไปตรงมา

Demis บอกชัดว่า Architecture ปัจจุบัน ไม่ว่าจะเป็น Pre-training, RLHF หรือ Chain of Thought จะยังเป็นส่วนหนึ่งของ AGI แน่นอน เพราะมันพิสูจน์ตัวเองแล้วว่าใช้งานได้จริง แต่ปัญหาคือมันยังไม่พอ
เขาระบุสามสิ่งสำคัญที่ยังแก้ไม่ได้ และมองว่าจะเป็นหัวใจของ AGI ตัวจริง ได้แก่ Continuous Learning, Memory และ Reasoning
โมเดลส่วนใหญ่เรียนรู้จบก่อน Deploy และหลังจากนั้นก็แทบไม่สามารถปรับตัวกับบริบทใหม่ได้จริง Demis เปรียบเรื่องนี้กับสมองมนุษย์ที่ใช้ REM Sleep ในการย้อนเล่นความทรงจำสำคัญซ้ำ ๆ เพื่อตกผลึกรวมเข้ากับสิ่งที่รู้อยู่แล้ว ซึ่งแนวคิดนี้ DeepMind เคยใช้ตั้งแต่ยุค DQN ในปี 2013 ผ่านเทคนิค Experience Replay
แต่สิ่งที่เกิดขึ้นในระบบ AI ปัจจุบันคือการ 'ยัดทุกอย่างเข้า Context Window' ซึ่งเขาเรียกตรง ๆ ว่าเป็นแค่ 'Duct tape' หรือเทปแปะที่แก้ปัญหาแบบขอไปที มันใช้งานได้ แต่ไม่ได้สวยงามลงตัว และไม่ Scalable ในระยะยาว
แม้ Context Window ระดับล้าน Token จะฟังดูมหาศาล แต่ Demis ชี้ว่าถ้าต้องประมวลผลวิดีโอแบบ Real-time มันอาจใช้หมดภายในราว 20 นาทีเท่านั้น ปัญหาใหญ่กว่านั้นคือระบบปัจจุบัน 'จำทุกอย่าง' โดยไม่คัดกรอง ทั้งข้อมูลสำคัญ ข้อมูลผิดพลาด และข้อมูลที่ไม่เกี่ยวข้อง ยิ่งข้อมูลมาก ค่าใช้จ่ายในการค้นหาสิ่งที่เกี่ยวข้องกับการตัดสินใจตอนนั้นจริง ๆ ก็ยิ่งสูงขึ้น สำหรับเขา นี่คือหนึ่งในพื้นที่ที่ยังมีช่องว่างให้พัฒนาต่อมหาศาล
Demis ใช้คำว่า 'Jagged Intelligence' เพื่ออธิบาย AI ปัจจุบัน โมเดลสามารถแก้โจทย์ระดับ IMO Gold Medal ได้ แต่กลับทำเลขพื้นฐานผิดเมื่อเปลี่ยนรูปแบบคำถามเพียงเล็กน้อย
ตัวอย่างที่เขาชอบยกคือเวลาเล่นหมากรุกกับ Gemini บางครั้งระบบ 'รู้' ว่าการเดินหมากรูปแบบหนึ่งอาจจะเป็นความผิดพลาด แต่เมื่อหาทางเลือกที่ดีกว่าไม่เจอ สุดท้ายก็เดินหมากนั้นอยู่ดี ซึ่งในระบบที่มี Reasoning ที่แม่นยำจริง สิ่งนี้ไม่ควรเกิดขึ้น
สำหรับเขา นี่สะท้อนว่าระบบยังขาดความสามารถในการคอยตรวจสอบและปรับกระบวนการคิดระหว่างทางอย่างแท้จริง
หนึ่งในประเด็นที่ Demis พูดชัดที่สุดในงานนี้คือ "คุณต้องมีระบบที่ Active และแก้ปัญหาได้เอง ถึงจะไปถึง AGI" และสำหรับเขา AI Agent คือเส้นทางนั้น
แต่เขาก็ยอมรับตรง ๆ ว่าโลกตอนนี้ยังอยู่ในช่วงทดลอง แม้ทุกคนจะพูดถึง AI Agent กันมหาศาล แต่เรายังไม่เห็นผลลัพธ์ที่พิสูจน์ว่า AI Agent กำลังสร้างคุณค่าได้อย่างแท้จริง เขายกตัวอย่างง่าย ๆ ว่าถ้าเครื่องมือดีพอแล้วจริง เราควรได้เห็น "เด็กคนหนึ่งสร้างเกมที่ขายได้ 10 ล้านชุด" ไปแล้ว แต่ตอนนี้ยังไม่เกิดขึ้น นั่นแปลว่ายังมีอะไรบางอย่างขาดอยู่
ในแง่นี้ เขายังเชื่อว่าแนวคิดจากยุค AlphaGo กำลังกลับมาในยุค Foundation Models อีกครั้ง เหตุผลคือโมเดลในยุคนั้นไม่ได้แค่ 'ทำนายคำถัดไป' แต่ถูกออกแบบมาให้ตั้งเป้าหมาย วางแผน และตัดสินใจเชิงรุกได้เอง ซึ่งนั่นคือนิยามของ AI Agent อยู่แล้ว
ไม่ว่าจะเป็น Reinforcement Learning, Monte Carlo Tree Search หรือแนวคิดด้านการวางแผนและการตัดสินใจเชิงรุกต่าง ๆ ที่ DeepMind ใช้มาตั้งแต่ Atari จนถึง AlphaStar สิ่งเหล่านี้คือเครื่องมือที่ช่วยให้ระบบสำรวจทางเลือกหลายเส้นทางพร้อมกัน แทนที่จะคิดแบบเส้นตรงทีละขั้น เขามองว่าเทคนิคเหล่านี้ยังถูกมองข้าม และจะกลายเป็นส่วนสำคัญของการพัฒนาการใช้เหตุผลและ AI Agent รุ่นถัดไป
พูดอีกแบบคือ ยุคถัดไปของ AI อาจไม่ได้โตผ่าน Scale อย่างเดียว แต่โตผ่านการกลับมาใส่ Planning, Search และ Active Decision-Making เข้าไปอีกครั้ง
หนึ่งในช่วงที่มีประโยชน์ที่สุดของ Session คือการที่ Demis อธิบาย Framework ที่เขาใช้เลือก Science Problem หรือโจทย์ทางวิทยาศาสตร์ขนาดใหญ่ที่ยังไม่มีคำตอบ ตั้งแต่ยุค AlphaGo จนถึง AlphaFold
สิ่งที่น่าสนใจคือ Framework นี้ไม่ได้เกิดจากการมองว่า AI เก่งเรื่องอะไร แต่เกิดจากการมองว่า "จทย์แบบไหนที่มนุษย์แก้ไม่ได้ แต่ AI แก้ได้ เขาเรียกสิ่งนี้ว่า Root Node Problem หรือปัญหาที่ถ้าแก้ได้จะปลดล็อกสาขาวิทยาศาสตร์ทั้งสาขา เหมือนที่ AlphaFold เปลี่ยนวงการชีววิทยาไปตลอดกาล และ Framework นี้มีสามเงื่อนไขสำคัญ
เขามองว่าหลายสาขาวิทยาศาสตร์ตอนนี้กำลังอยู่ในช่วง 'AlphaFold 1 Moment' คือจุดที่เริ่มเห็นสัญญาณว่า AI จะเข้ามาเปลี่ยนสาขานั้นได้ แต่ยังไม่มีความสำเร็จที่ใหญ่พอจะพลิกทั้งวงการในคราวเดียว เหมือนที่ AlphaFold รุ่นแรกแสดงให้เห็นว่า AI ทำนายโครงสร้างโปรตีนได้ แต่ต้องรอ AlphaFold 2 ถึงจะแม่นยำพอที่นักวิทยาศาสตร์ทั่วโลกหยิบไปใช้งานจริงได้ ทั้ง Materials Science, Drug Discovery, Mathematics และ Climate Modeling อาจกำลังอยู่ในจุดนั้นพอดีตอนนี้
Demis วางไทม์ไลน์ของตัวเองไว้ชัดว่า AGI อาจเกิดขึ้นราวปี 2030 และนั่นทำให้เขาเตือน Founder ทุกคนว่า ถ้าคุณเริ่ม Deep Tech Journey วันนี้ ซึ่งปกติใช้เวลา 10 ปี คุณต้องเตรียมรับมือกับ 'AGI ที่จะปรากฏขึ้นกลางทาง' และคำถามสำคัญคือ สิ่งที่คุณกำลังสร้างจะยังมีคุณค่าอยู่หรือไม่เมื่อ AGI มันมาถึง
เขายกตัวอย่างว่าในอนาคต Gemini หรือ Claude อาจไม่ได้พยายามทำทุกอย่างเอง แต่จะทำหน้าที่เป็นระบบกลางที่คอยเรียกใช้ระบบเฉพาะทางอย่าง AlphaFold เป็นเครื่องมือแทน เพราะการอัดความรู้ทุกสาขาไว้ในโมเดลเดียวจะทำให้ประสิทธิภาพโดยรวมแย่ลง ไม่ต่างจากการให้ผู้เชี่ยวชาญคนเดียวรู้ทุกเรื่องในระดับลึกพร้อมกัน
นั่นทำให้เขามองว่าโอกาสที่แข็งแรงที่สุดสำหรับ Startup คือพื้นที่ที่เกี่ยวข้องกับ 'โลกของอะตอม' ไม่ว่าจะเป็น Materials, Medicine หรือ Robotics เพราะสิ่งเหล่านี้ต้องการความเชี่ยวชาญเฉพาะทางและการทดลองในโลกจริง ซึ่งไม่สามารถถูกแทนที่ได้ง่าย ๆ เพียงแค่ Foundation Model รุ่นถัดไปออกมา
และนี่อาจเป็นบทเรียนสำคัญที่สุดจากทั้ง Session ในวันที่ AI กำลังกลายเป็นสิ่งที่ทุกคนเข้าถึงได้ง่ายขึ้นเรื่อย ๆ สิ่งที่จะปกป้องธุรกิจได้ในระยะยาวอาจไม่ใช่ตัวโมเดลเอง แต่คือความสามารถในการเชื่อม AI เข้ากับโลกจริง ที่ต้องอาศัยข้อมูลเฉพาะทาง ความเข้าใจเชิงลึก และระบบกายภาพที่ซับซ้อนเกินกว่าจะถูกแทนที่ได้ด้วยการพิมพ์คำสั่งเพียงไม่กี่บรรทัด
ที่มา: Y Combinator
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด