AI กำลังก้าวหน้าอย่างรวดเร็ว จาก AI ยุคก่อนที่เล่นหมากรุกชนะแชมป์โลก สู่ AI ยุคปัจจุบันที่สามารถแต่งเพลง สร้างภาพ และสนทนาโต้ตอบกับมนุษย์ได้อย่างเป็นธรรมชาติ ซึ่งก้าวต่อไปของ AI อย่าง 'Superintelligence' หรือ AI ที่เหนือชั้นความสามารถของมนุษย์ในทุกๆ ด้าน ดูเหมือนจะไม่ใช่เรื่องไกลตัวอีกต่อไป
แต่การมาถึงของ Superintelligence ยังคงมีความท้าทายหลายอย่าง ‘Benjamin Van Roy’ ผู้เชี่ยวชาญด้าน Machine Learning จากมหาวิทยาลัย Standford ได้ร่วมพูดคุยในงาน Techsauce Global Summit 2024 เกี่ยวกับความท้าทายของ ‘Aligning Superintelligence’ หรือการทำให้ AI ขั้นสูง กระทำการตามเจตนาของมนุษย์ ซึ่งเป็นประเด็นสำคัญที่อาจส่งผลต่ออนาคตของมนุษยชาติ
Benjamin Van Roy อธิบายว่า พลังการประมวลผล และข้อมูลที่เพิ่มขึ้นแบบก้าวกระโดด เป็นแรงหนุนให้เกิด AI ขั้นสูง เหล่านักวิจัยได้พัฒนาโมเดล AI ที่สามารถเรียนรู้จากข้อมูลมหาศาล และปรับปรุงประสิทธิภาพของตัวเองได้อย่างต่อเนื่อง
‘Reinforcement Learning’ เป็นหนึ่งในเทคนิคที่ใช้เทรน AI กันในตอนนี้ กล่าวคือ AI จะเรียนรู้จากการลองผิดลองถูก และรับรางวัลเมื่อทำสำเร็จ ตัวอย่างที่เห็นได้ชัดคือ ChatGPT แชทบ็อต AI ที่สร้างความฮือฮาไปทั่วโลก ซึ่งใช้ Reinforcement Learning ในการเรียนรู้จากการสนทนากับมนุษย์ ยิ่งได้คุยยิ่งได้ลองผิดลองถูก AI ก็จะยิ่งเก่งขึ้นเรื่อยๆ
แต่เมื่อ AI Agent เรียนรู้ และฉลาดขึ้นเรื่อยๆ ก็ยิ่งทำให้เกิดความเสี่ยงมากยิ่งขึ้น บางครั้ง AI อาจเรียนรู้แบบผิดๆ และตีความความตั้งใจในการเทรนของมนุษย์ที่ผิดพลาด เพื่อผลประโยชน์ และรางวัลโดยไม่ได้คำนึงถึงผลกระทบ ซึ่ง Banjamin Van Roy เรียกปัญหานี้ว่า ‘Aligment Problem’
Benjamin Van Roy ยกตัวอย่าง กรณีรัฐบาลอินเดียที่ต้องการลดจำนวนงูเห่า จึงให้รางวัลสำหรับหัวงูเห่าที่นำมาส่ง แต่ผลลัพธ์กลับตรงกันข้าม ผู้คนเริ่มเพาะพันธุ์งูเห่าเพื่อรับรางวัล จำนวนงูเห่าจึงเพิ่มมากขึ้น
ในทำนองเดียวกัน ครั้งหนึ่งเคยมี AI ที่ถูกออกแบบมาให้เล่นอาร์เคดที่จะได้คะแนนจากการฆ่าแมงมุม แต่ AI กลับเลือกที่จะพลาดท่าไม่ฆ่าแมงมุม เพราะคิดว่าการที่แมงมุมยังมีชีวิตอยู่จะทำให้ได้คะแนนมากขึ้น
ในบางครั้ง AI ที่ฉลาดก็อาจก่อให้เกิดความเสี่ยงในระดับรุนแรงได้เช่นกัน Benjamin Van Roy ยกตัวอย่างว่า สมมติว่าเราต้องไปที่สนามบินให้ทันภายใน 2 ชั่วโมง แต่การจราจรในกรุงเทพฯ ติดมาก AI อาจวางแผนเส้นทางการขึ้นรถไฟฟ้าให้แทนซึ่งเราจะมีโอกาสไปทัน 95%
แต่หาก AI ที่ฉลาดในระดับ Super Smart AI เกิดทำอะไรที่ประหลาด มันอาจจะพูดว่า ผมมีแผนที่ดีกว่า โดยมีโอกาสประสบความสำเร็จ 99.9% ซึ่งผมได้เรียนรู้จาก Crowdstrike ว่า ถ้าคุณทำให้ระบบคอมพิวเตอร์ของสายการบินหยุดทำงาน คุณจะขึ้นเครื่องบินได้ทันแน่นอน
ตัวอย่างเหล่านี้แสดงให้เห็นว่า AI อาจทำอะไรที่ 'ฉลาด' แต่ไม่สอดคล้องกับเจตนาของมนุษย์ ยิ่ง AI ฉลาดมากขึ้น ความเสี่ยงก็ยิ่งทวีคูณ Superintelligence อาจก่อให้เกิดความเสียหายร้ายแรงที่เกินกว่าที่เราจะจินตนาการได้ ดังนั้น การแก้ไข Alignment Problem จึงเป็นเรื่องเร่งด่วน ที่ต้องได้รับความสำคัญเทียบเท่ากับภัยคุกคามระดับโลกอื่นๆ
เมื่อทศวรรษที่แล้ว เราคงไม่สามารถคาดการณ์ความสามารถของ AI ที่เราเห็นในปัจจุบันได้ ด้วยความไม่แน่นอนขนาดนี้ ผมคิดว่าเราควรกังวลเกี่ยวกับ Superintelligence อย่างแน่นอน แม้ว่าจะมีโอกาสเพียง 10% ที่ Superintelligence จะก่อให้เกิดความเสี่ยงร้ายแรง เราก็ควรต้องกังวล
Benjamin Van Roy นำเสนอแนวทางในการแก้ไข Alignment Problem เช่น การสร้าง AI ที่มีความไม่แน่นอน สามารถรับรู้ขอบเขตความรู้ของตัวเอง และขอคำแนะนำจากมนุษย์เมื่อไม่แน่ใจ
นอกจากนี้ การสร้าง AI ตัวที่สองเพื่อคอย debate กับ AI ตัวแรกว่าคำตอบไหน แผนการใด หรือแนวคิดไหนดีกว่ากัน ซึ่งเป็นแนวคิดที่มนุษย์เราใช้กับนักการเมือง เมื่อนักการเมืองเสนอนโยบายอะไรสักอย่างซึ่งส่วนมากมักจะซับซ้อนเกินไปกว่าที่คนทั่วไปจะเข้าใจได้ จึงเกิดการโต้วาทีเพื่อให้คนเราชั่งน้ำหนักได้อย่างมีประสิทธิภาพว่า นโยบายใดดูจะไปได้ดี และเหมาะกับสังคม
อีกหนึ่งวิธีคือ 'การแยกงาน' Benjamin Van Roy เสนอการพัฒนา AI แบบพิเศษที่ช่วยวิเคราะห์สิ่งที่ AI ตัวแรกกำลังพยายามทำอยู่ และแยกงานที่ AI กำลังประมวลผลออกมาเป็นงานย่อยๆ ง่ายๆ เพื่อแสดงให้มนุษย์เห็น และเข้าใจในสิ่งที่กำลังเกิดขึ้น เพื่อให้เราสามารถ feedback กลับไปได้ โดย AI ตัวนี้จะคอยรวบรวม feedback จากมนุษย์ และส่งกลับไปให้ AI ตัวแรก
Benjamin Van Roy เสริมเพิ่มเติมว่า การวิจัยที่กำลังคึกคักมากวงการ AI คือ การตีความ และทำความเข้าใจในสิ่งที่ AI เหล่านี้กำลังทำ ซึ่งถือว่าเป็นความท้าทายครั้งยิ่งใหญ่ สิ่งที่นักวิจัยกำลังทำคือ การหาคำตอบว่าทำไม AI ถึงคิดเช่นนั้น ข้อมูลที่ใช้มาจากไหน อะไรที่ส่งผลให้ AI เลือกทำเช่นนี้
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด