Aligning Superintelligence สร้าง AI อย่างไรไม่ให้ออกนอกลู่ ผ่านแนวคิดจาก Benjamin Van Roy

AI กำลังก้าวหน้าอย่างรวดเร็ว จาก AI ยุคก่อนที่เล่นหมากรุกชนะแชมป์โลก สู่ AI ยุคปัจจุบันที่สามารถแต่งเพลง สร้างภาพ และสนทนาโต้ตอบกับมนุษย์ได้อย่างเป็นธรรมชาติ ซึ่งก้าวต่อไปของ AI อย่าง 'Superintelligence' หรือ AI ที่เหนือชั้นความสามารถของมนุษย์ในทุกๆ ด้าน ดูเหมือนจะไม่ใช่เรื่องไกลตัวอีกต่อไป  

แต่การมาถึงของ Superintelligence ยังคงมีความท้าทายหลายอย่าง ‘Benjamin Van Roy’ ผู้เชี่ยวชาญด้าน Machine Learning จากมหาวิทยาลัย Standford  ได้ร่วมพูดคุยในงาน Techsauce Global Summit 2024 เกี่ยวกับความท้าทายของ ‘Aligning Superintelligence’ หรือการทำให้ AI ขั้นสูง กระทำการตามเจตนาของมนุษย์  ซึ่งเป็นประเด็นสำคัญที่อาจส่งผลต่ออนาคตของมนุษยชาติ


เมื่อ AI ฉลาดเกินไป ทำอย่างไรให้ไม่ออกนอกลู่

Benjamin Van Roy อธิบายว่า พลังการประมวลผล และข้อมูลที่เพิ่มขึ้นแบบก้าวกระโดด เป็นแรงหนุนให้เกิด AI ขั้นสูง เหล่านักวิจัยได้พัฒนาโมเดล AI ที่สามารถเรียนรู้จากข้อมูลมหาศาล และปรับปรุงประสิทธิภาพของตัวเองได้อย่างต่อเนื่อง

‘Reinforcement Learning’ เป็นหนึ่งในเทคนิคที่ใช้เทรน AI กันในตอนนี้ กล่าวคือ AI จะเรียนรู้จากการลองผิดลองถูก และรับรางวัลเมื่อทำสำเร็จ ตัวอย่างที่เห็นได้ชัดคือ ChatGPT แชทบ็อต AI ที่สร้างความฮือฮาไปทั่วโลก ซึ่งใช้ Reinforcement Learning ในการเรียนรู้จากการสนทนากับมนุษย์ ยิ่งได้คุยยิ่งได้ลองผิดลองถูก AI ก็จะยิ่งเก่งขึ้นเรื่อยๆ 

แต่เมื่อ AI Agent เรียนรู้ และฉลาดขึ้นเรื่อยๆ ก็ยิ่งทำให้เกิดความเสี่ยงมากยิ่งขึ้น บางครั้ง AI อาจเรียนรู้แบบผิดๆ และตีความความตั้งใจในการเทรนของมนุษย์ที่ผิดพลาด เพื่อผลประโยชน์ และรางวัลโดยไม่ได้คำนึงถึงผลกระทบ ซึ่ง Banjamin Van Roy เรียกปัญหานี้ว่า ‘Aligment Problem’


Benjamin Van Roy ยกตัวอย่าง กรณีรัฐบาลอินเดียที่ต้องการลดจำนวนงูเห่า จึงให้รางวัลสำหรับหัวงูเห่าที่นำมาส่ง แต่ผลลัพธ์กลับตรงกันข้าม ผู้คนเริ่มเพาะพันธุ์งูเห่าเพื่อรับรางวัล จำนวนงูเห่าจึงเพิ่มมากขึ้น  

ในทำนองเดียวกัน ครั้งหนึ่งเคยมี AI ที่ถูกออกแบบมาให้เล่นอาร์เคดที่จะได้คะแนนจากการฆ่าแมงมุม แต่ AI กลับเลือกที่จะพลาดท่าไม่ฆ่าแมงมุม เพราะคิดว่าการที่แมงมุมยังมีชีวิตอยู่จะทำให้ได้คะแนนมากขึ้น 

ในบางครั้ง AI ที่ฉลาดก็อาจก่อให้เกิดความเสี่ยงในระดับรุนแรงได้เช่นกัน Benjamin Van Roy ยกตัวอย่างว่า สมมติว่าเราต้องไปที่สนามบินให้ทันภายใน 2 ชั่วโมง แต่การจราจรในกรุงเทพฯ ติดมาก AI อาจวางแผนเส้นทางการขึ้นรถไฟฟ้าให้แทนซึ่งเราจะมีโอกาสไปทัน 95% 

แต่หาก AI ที่ฉลาดในระดับ Super Smart AI เกิดทำอะไรที่ประหลาด มันอาจจะพูดว่า ผมมีแผนที่ดีกว่า โดยมีโอกาสประสบความสำเร็จ 99.9% ซึ่งผมได้เรียนรู้จาก Crowdstrike ว่า ถ้าคุณทำให้ระบบคอมพิวเตอร์ของสายการบินหยุดทำงาน คุณจะขึ้นเครื่องบินได้ทันแน่นอน 

ตัวอย่างเหล่านี้แสดงให้เห็นว่า AI อาจทำอะไรที่ 'ฉลาด' แต่ไม่สอดคล้องกับเจตนาของมนุษย์ ยิ่ง AI ฉลาดมากขึ้น ความเสี่ยงก็ยิ่งทวีคูณ Superintelligence อาจก่อให้เกิดความเสียหายร้ายแรงที่เกินกว่าที่เราจะจินตนาการได้  ดังนั้น การแก้ไข Alignment Problem จึงเป็นเรื่องเร่งด่วน ที่ต้องได้รับความสำคัญเทียบเท่ากับภัยคุกคามระดับโลกอื่นๆ


ตอนนี้นักวิจัยทำอะไรอยู่ ?

เมื่อทศวรรษที่แล้ว เราคงไม่สามารถคาดการณ์ความสามารถของ AI ที่เราเห็นในปัจจุบันได้ ด้วยความไม่แน่นอนขนาดนี้ ผมคิดว่าเราควรกังวลเกี่ยวกับ Superintelligence อย่างแน่นอน แม้ว่าจะมีโอกาสเพียง 10% ที่ Superintelligence จะก่อให้เกิดความเสี่ยงร้ายแรง เราก็ควรต้องกังวล

Benjamin Van Roy นำเสนอแนวทางในการแก้ไข Alignment Problem เช่น การสร้าง AI ที่มีความไม่แน่นอน สามารถรับรู้ขอบเขตความรู้ของตัวเอง และขอคำแนะนำจากมนุษย์เมื่อไม่แน่ใจ 

นอกจากนี้ การสร้าง AI ตัวที่สองเพื่อคอย debate กับ AI ตัวแรกว่าคำตอบไหน แผนการใด หรือแนวคิดไหนดีกว่ากัน ซึ่งเป็นแนวคิดที่มนุษย์เราใช้กับนักการเมือง เมื่อนักการเมืองเสนอนโยบายอะไรสักอย่างซึ่งส่วนมากมักจะซับซ้อนเกินไปกว่าที่คนทั่วไปจะเข้าใจได้ จึงเกิดการโต้วาทีเพื่อให้คนเราชั่งน้ำหนักได้อย่างมีประสิทธิภาพว่า นโยบายใดดูจะไปได้ดี และเหมาะกับสังคม 

อีกหนึ่งวิธีคือ 'การแยกงาน' Benjamin Van Roy เสนอการพัฒนา AI แบบพิเศษที่ช่วยวิเคราะห์สิ่งที่ AI ตัวแรกกำลังพยายามทำอยู่ และแยกงานที่ AI กำลังประมวลผลออกมาเป็นงานย่อยๆ ง่ายๆ เพื่อแสดงให้มนุษย์เห็น และเข้าใจในสิ่งที่กำลังเกิดขึ้น เพื่อให้เราสามารถ feedback กลับไปได้ โดย AI ตัวนี้จะคอยรวบรวม feedback จากมนุษย์ และส่งกลับไปให้ AI ตัวแรก

Benjamin Van Roy เสริมเพิ่มเติมว่า การวิจัยที่กำลังคึกคักมากวงการ AI คือ การตีความ และทำความเข้าใจในสิ่งที่ AI เหล่านี้กำลังทำ ซึ่งถือว่าเป็นความท้าทายครั้งยิ่งใหญ่ สิ่งที่นักวิจัยกำลังทำคือ การหาคำตอบว่าทำไม AI ถึงคิดเช่นนั้น ข้อมูลที่ใช้มาจากไหน อะไรที่ส่งผลให้ AI เลือกทำเช่นนี้ 

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

รวมคลื่น Layoff 2025 บิ๊กเทคปลดคนครั้งใหญ่ 300 กว่าวันที่ผ่านมาเจออะไรบ้าง ?

อัปเดตวิกฤต Layoff ปี 2025 ในวงการเทค Intel ปลดกว่า 23,000 คน ตามด้วย Microsoft และ Amazon วิเคราะห์ภาพรวมการลดคนครั้งใหญ่และแนวโน้มตลาดแรงงานยุค AI...

Responsive image

สรุป 17 ดีลใหญ่ AI ที่เกิดขึ้นในปี 2025

สรุปครบ 17 ดีล AI ยักษ์ใหญ่ปี 2025 พร้อมเจาะลึกปม Circular Deals หรือการหมุนเงินลงทุนเป็นวงกลม สัญญาณเตือนฟองสบู่ที่นักลงทุนต้องระวัง...

Responsive image

ทิศทาง Agoda ในยุค AI-First จาก CEO เตรียมปักธงปั้นกรุงเทพฯ เป็น ‘Silicon Valley แห่งเอเชีย’ พร้อมส่องเทรนด์ท่องเที่ยวปี 2026

เจาะลึกวิสัยทัศน์ Agoda 2025 ปั้นกรุงเทพฯ สู่ Silicon Valley แห่งเอเชีย พร้อมเปิดตัวกลยุทธ์ AI-First และ Autonomous Agent ผู้ช่วยอัจฉริยะที่คิดแทนคุณได้ เผยข้อมูล Insight เที่ยวไทย...