Road to AGI อีกไกลแค่ไหน? CEO Google DeepMind เปิด 3 สิ่งที่ AI ต้องแก้ก่อนถึงเส้นชัย และอะไรคือทางออก

ในโลกที่ทุกคนเริ่มพูดถึง AGI หรือ Artificial General Intelligence ราวกับเป็นเรื่องปกติ มีไม่กี่คนที่พูดถึงมันจากมุมของ 'คนที่สร้างมันจริง' มานานกว่า 30 ปี และหนึ่งในนั้นคือ Demis Hassabis

บนเวที YC Startup School ล่าสุด Demis Hassabis ไม่ได้ขึ้นมาพร้อม Demo ใหม่หรือประกาศผลิตภัณฑ์ แต่เขาพูดถึงสิ่งที่สำคัญกว่านั้นมาก นั่นคือ เราอยู่ตรงไหนบน Road to AGI? อะไรที่ยังขาด? และถ้า AGI มาถึงราวปี 2030 จริง โลกของ Startup, Science และ Deep Tech จะเปลี่ยนไปอย่างไร?

สิ่งที่ทำให้ Session นี้น่าสนใจ ไม่ใช่แค่เพราะเขาคือคนที่สร้าง AlphaGo, AlphaFold และเพิ่งคว้ารางวัลโนเบลไป แต่เพราะเขาเป็นหนึ่งในไม่กี่คนที่พูดถึงข้อจำกัดของ AI ปัจจุบันแบบตรงไปตรงมา

ทำไม AI ทุกวันนี้ยัง 'เก่งแบบขาด ๆ เกิน ๆ'

Demis บอกชัดว่า Architecture ปัจจุบัน ไม่ว่าจะเป็น Pre-training, RLHF หรือ Chain of Thought จะยังเป็นส่วนหนึ่งของ AGI แน่นอน เพราะมันพิสูจน์ตัวเองแล้วว่าใช้งานได้จริง แต่ปัญหาคือมันยังไม่พอ

เขาระบุสามสิ่งสำคัญที่ยังแก้ไม่ได้ และมองว่าจะเป็นหัวใจของ AGI ตัวจริง ได้แก่ Continuous Learning, Memory และ Reasoning

Continuous Learning: AI ยัง 'หยุดเรียนรู้' หลัง Deploy

โมเดลส่วนใหญ่เรียนรู้จบก่อน Deploy และหลังจากนั้นก็แทบไม่สามารถปรับตัวกับบริบทใหม่ได้จริง Demis เปรียบเรื่องนี้กับสมองมนุษย์ที่ใช้ REM Sleep ในการย้อนเล่นความทรงจำสำคัญซ้ำ ๆ เพื่อตกผลึกรวมเข้ากับสิ่งที่รู้อยู่แล้ว ซึ่งแนวคิดนี้ DeepMind เคยใช้ตั้งแต่ยุค DQN ในปี 2013 ผ่านเทคนิค Experience Replay

แต่สิ่งที่เกิดขึ้นในระบบ AI ปัจจุบันคือการ 'ยัดทุกอย่างเข้า Context Window' ซึ่งเขาเรียกตรง ๆ ว่าเป็นแค่ 'Duct tape' หรือเทปแปะที่แก้ปัญหาแบบขอไปที มันใช้งานได้ แต่ไม่ได้สวยงามลงตัว และไม่ Scalable ในระยะยาว

Memory: ล้าน Token อาจยังไม่พอ

แม้ Context Window ระดับล้าน Token จะฟังดูมหาศาล แต่ Demis  ชี้ว่าถ้าต้องประมวลผลวิดีโอแบบ Real-time มันอาจใช้หมดภายในราว 20 นาทีเท่านั้น ปัญหาใหญ่กว่านั้นคือระบบปัจจุบัน 'จำทุกอย่าง' โดยไม่คัดกรอง ทั้งข้อมูลสำคัญ ข้อมูลผิดพลาด และข้อมูลที่ไม่เกี่ยวข้อง ยิ่งข้อมูลมาก ค่าใช้จ่ายในการค้นหาสิ่งที่เกี่ยวข้องกับการตัดสินใจตอนนั้นจริง ๆ ก็ยิ่งสูงขึ้น สำหรับเขา นี่คือหนึ่งในพื้นที่ที่ยังมีช่องว่างให้พัฒนาต่อมหาศาล

Reasoning: ความฉลาดที่ยัง 'เป็นหยัก ๆ'

Demis ใช้คำว่า 'Jagged Intelligence' เพื่ออธิบาย AI ปัจจุบัน โมเดลสามารถแก้โจทย์ระดับ IMO Gold Medal ได้ แต่กลับทำเลขพื้นฐานผิดเมื่อเปลี่ยนรูปแบบคำถามเพียงเล็กน้อย

ตัวอย่างที่เขาชอบยกคือเวลาเล่นหมากรุกกับ Gemini บางครั้งระบบ 'รู้' ว่าการเดินหมากรูปแบบหนึ่งอาจจะเป็นความผิดพลาด แต่เมื่อหาทางเลือกที่ดีกว่าไม่เจอ สุดท้ายก็เดินหมากนั้นอยู่ดี ซึ่งในระบบที่มี Reasoning ที่แม่นยำจริง สิ่งนี้ไม่ควรเกิดขึ้น 

สำหรับเขา นี่สะท้อนว่าระบบยังขาดความสามารถในการคอยตรวจสอบและปรับกระบวนการคิดระหว่างทางอย่างแท้จริง

AI Agent ไม่ใช่ Hype แต่คือเส้นทางสู่ AGI

หนึ่งในประเด็นที่ Demis พูดชัดที่สุดในงานนี้คือ "คุณต้องมีระบบที่ Active และแก้ปัญหาได้เอง ถึงจะไปถึง AGI" และสำหรับเขา AI Agent คือเส้นทางนั้น

แต่เขาก็ยอมรับตรง ๆ ว่าโลกตอนนี้ยังอยู่ในช่วงทดลอง แม้ทุกคนจะพูดถึง AI Agent กันมหาศาล แต่เรายังไม่เห็นผลลัพธ์ที่พิสูจน์ว่า AI Agent กำลังสร้างคุณค่าได้อย่างแท้จริง เขายกตัวอย่างง่าย ๆ ว่าถ้าเครื่องมือดีพอแล้วจริง เราควรได้เห็น "เด็กคนหนึ่งสร้างเกมที่ขายได้ 10 ล้านชุด" ไปแล้ว แต่ตอนนี้ยังไม่เกิดขึ้น นั่นแปลว่ายังมีอะไรบางอย่างขาดอยู่

ในแง่นี้ เขายังเชื่อว่าแนวคิดจากยุค AlphaGo กำลังกลับมาในยุค Foundation Models อีกครั้ง เหตุผลคือโมเดลในยุคนั้นไม่ได้แค่ 'ทำนายคำถัดไป' แต่ถูกออกแบบมาให้ตั้งเป้าหมาย วางแผน และตัดสินใจเชิงรุกได้เอง ซึ่งนั่นคือนิยามของ AI Agent อยู่แล้ว 

ไม่ว่าจะเป็น Reinforcement Learning, Monte Carlo Tree Search หรือแนวคิดด้านการวางแผนและการตัดสินใจเชิงรุกต่าง ๆ ที่ DeepMind ใช้มาตั้งแต่ Atari จนถึง AlphaStar สิ่งเหล่านี้คือเครื่องมือที่ช่วยให้ระบบสำรวจทางเลือกหลายเส้นทางพร้อมกัน แทนที่จะคิดแบบเส้นตรงทีละขั้น เขามองว่าเทคนิคเหล่านี้ยังถูกมองข้าม และจะกลายเป็นส่วนสำคัญของการพัฒนาการใช้เหตุผลและ AI Agent รุ่นถัดไป

พูดอีกแบบคือ ยุคถัดไปของ AI อาจไม่ได้โตผ่าน Scale อย่างเดียว แต่โตผ่านการกลับมาใส่ Planning, Search และ Active Decision-Making เข้าไปอีกครั้ง

Pattern ของ AlphaFold วิธีมองหาโจทย์ที่ AI จะพลิกโลกได้

หนึ่งในช่วงที่มีประโยชน์ที่สุดของ Session คือการที่ Demis อธิบาย Framework ที่เขาใช้เลือก Science Problem หรือโจทย์ทางวิทยาศาสตร์ขนาดใหญ่ที่ยังไม่มีคำตอบ ตั้งแต่ยุค AlphaGo จนถึง AlphaFold

สิ่งที่น่าสนใจคือ Framework นี้ไม่ได้เกิดจากการมองว่า AI เก่งเรื่องอะไร แต่เกิดจากการมองว่า "จทย์แบบไหนที่มนุษย์แก้ไม่ได้ แต่ AI แก้ได้ เขาเรียกสิ่งนี้ว่า Root Node Problem หรือปัญหาที่ถ้าแก้ได้จะปลดล็อกสาขาวิทยาศาสตร์ทั้งสาขา เหมือนที่ AlphaFold เปลี่ยนวงการชีววิทยาไปตลอดกาล และ Framework นี้มีสามเงื่อนไขสำคัญ

  • พื้นที่ของความเป็นไปได้ทั้งหมด (Search Space) ต้องใหญ่เกินกว่าจะลองผิดลองถูกได้ครบ เช่น จำนวนการเดินหมากในเกม Go หรือรูปแบบการพับตัวของโปรตีน มีมากกว่าจำนวนอะตอมในจักรวาล ไม่มีคอมพิวเตอร์เครื่องไหนลองได้ครบทุกแบบ5
  • ต้องมีเป้าหมายที่วัดได้ชัดเจน (Objective Function) เช่น ชนะเกม Go หรือทำให้โปรตีนพับตัวได้เสถียรที่สุด เพื่อให้ระบบรู้ว่าแต่ละก้าวที่เดินไปนั้น 'ดีขึ้นหรือแย่ลง' และปรับตัวเองได้
  • ต้องมีข้อมูลหรือตัวจำลองสถานการณ์ (Simulator) มากพอ เพื่อให้ระบบได้ฝึกซ้ำในปริมาณมหาศาล โดยไม่ต้องรอเก็บข้อมูลจากโลกจริงทีละชิ้น

เขามองว่าหลายสาขาวิทยาศาสตร์ตอนนี้กำลังอยู่ในช่วง 'AlphaFold 1 Moment' คือจุดที่เริ่มเห็นสัญญาณว่า AI จะเข้ามาเปลี่ยนสาขานั้นได้ แต่ยังไม่มีความสำเร็จที่ใหญ่พอจะพลิกทั้งวงการในคราวเดียว เหมือนที่ AlphaFold รุ่นแรกแสดงให้เห็นว่า AI ทำนายโครงสร้างโปรตีนได้ แต่ต้องรอ AlphaFold 2 ถึงจะแม่นยำพอที่นักวิทยาศาสตร์ทั่วโลกหยิบไปใช้งานจริงได้ ทั้ง Materials Science, Drug Discovery, Mathematics และ Climate Modeling อาจกำลังอยู่ในจุดนั้นพอดีตอนนี้

AGI ปี 2030 กับ Deep Tech Journey ที่จะเจอ AGI กลางทาง

Demis วางไทม์ไลน์ของตัวเองไว้ชัดว่า AGI อาจเกิดขึ้นราวปี 2030 และนั่นทำให้เขาเตือน Founder ทุกคนว่า ถ้าคุณเริ่ม Deep Tech Journey วันนี้ ซึ่งปกติใช้เวลา 10 ปี คุณต้องเตรียมรับมือกับ 'AGI ที่จะปรากฏขึ้นกลางทาง' และคำถามสำคัญคือ สิ่งที่คุณกำลังสร้างจะยังมีคุณค่าอยู่หรือไม่เมื่อ AGI มันมาถึง

เขายกตัวอย่างว่าในอนาคต Gemini หรือ Claude อาจไม่ได้พยายามทำทุกอย่างเอง แต่จะทำหน้าที่เป็นระบบกลางที่คอยเรียกใช้ระบบเฉพาะทางอย่าง AlphaFold เป็นเครื่องมือแทน เพราะการอัดความรู้ทุกสาขาไว้ในโมเดลเดียวจะทำให้ประสิทธิภาพโดยรวมแย่ลง ไม่ต่างจากการให้ผู้เชี่ยวชาญคนเดียวรู้ทุกเรื่องในระดับลึกพร้อมกัน

นั่นทำให้เขามองว่าโอกาสที่แข็งแรงที่สุดสำหรับ Startup คือพื้นที่ที่เกี่ยวข้องกับ 'โลกของอะตอม' ไม่ว่าจะเป็น Materials, Medicine หรือ Robotics เพราะสิ่งเหล่านี้ต้องการความเชี่ยวชาญเฉพาะทางและการทดลองในโลกจริง ซึ่งไม่สามารถถูกแทนที่ได้ง่าย ๆ เพียงแค่ Foundation Model รุ่นถัดไปออกมา

และนี่อาจเป็นบทเรียนสำคัญที่สุดจากทั้ง Session ในวันที่ AI กำลังกลายเป็นสิ่งที่ทุกคนเข้าถึงได้ง่ายขึ้นเรื่อย ๆ สิ่งที่จะปกป้องธุรกิจได้ในระยะยาวอาจไม่ใช่ตัวโมเดลเอง แต่คือความสามารถในการเชื่อม AI เข้ากับโลกจริง ที่ต้องอาศัยข้อมูลเฉพาะทาง ความเข้าใจเชิงลึก และระบบกายภาพที่ซับซ้อนเกินกว่าจะถูกแทนที่ได้ด้วยการพิมพ์คำสั่งเพียงไม่กี่บรรทัด

ที่มา: Y Combinator

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Jensen Huang ซีอีโอ NVIDIA เตือนอย่าหลงเชื่อคำพูดผู้นำที่ทำคนกลัว AI เกินจริง

โลกตอนนี้เต็มไปด้วยคำเตือนเกี่ยวกับ AI ตั้งแต่ความเสี่ยงที่มนุษย์อาจถูกแทนที่ ไปจนถึงความกังวลว่าเทคโนโลยีนี้อาจส่งผลกระทบต่อสังคมและเศรษฐกิจครั้งใหญ่...

Responsive image

เมื่อ AI แย่งความสนุกในการแก้ปัญหา! Staff Engineer Google ลาออก แฉยุคที่วิศวกรกลายเป็นแค่ "คนป้อน Prompt"

เมื่อ Staff Engineer ตัวท็อปของ Google โบกมือลา! เปิดจดหมายแฉยับ เบื่อระบบรวนเพราะ AI แย่งทรัพยากร จนงานวิศวกรรมหมดความสนุก และต้องยอมทิ้งเงินล้านเพื่อกลับไปเป็นพ่อที่ได้กอดลูกโดยไ...

Responsive image

ฟีเจอร์ใหม่ NotebookLM ‘Interactive Mode’ แทรกถาม AI Host ได้กลางพอดแคสต์

NotebookLM เปิด Interactive Mode บน Audio Overview ให้ผู้ใช้กด Join แทรกถาม AI host กลางพอดแคสต์ได้ พร้อมตอบจาก source ใน NotebookLM...