วิจัยพบ AI ไม่ได้คิดอย่างที่พูด แม้จะโชว์วิธีคิดยาวเหยียด แต่ซ่อนความคิดที่แท้จริงไว้ไม่บอกใคร

ตอนนี้มี AI ประเภทใหม่ที่เรียกว่าโมเดลจำลองการให้เหตุผล (SR Model) ซึ่งถูกสร้างมาให้โชว์วิธีคิดทีละขั้นตอน เวลาเราถามคำถามยากๆ AI จะอธิบายออกมาเป็นขั้นเป็นตอนว่าคิดด้วยวิธีไหน ถึงได้คำตอบนี้มา (Chain-of-Thought)  ซึ่งตามหลักแล้วกระบวนการคิดของ AI ควรจะมีความ ‘ซื่อสัตย์’ ต่อความคิดตัวเอง เพราะจะช่วยให้นักวิจัย และผู้ใช้สามารถเช็กได้ว่า AI คิดอะไรอยู่ ปลอดภัยหรือเปล่า 

แต่ปัญหาคือ งานวิจัยใหม่จาก Anthropic บริษัทที่สร้าง AI ชื่อ Claude กลับพบว่า AI ที่ให้เหตุผลบางครั้งก็ไม่ได้ซื่อสัตย์กับควาคิดตัวเอง บางครั้งสร้างกระบวนการคิดหลอกๆ มาแสดงให้เห็น และแอบเก็บซ่อนความคิดที่แท้จริงเอาไว้

โดยทีมวิจัยได้ทดสอบกับ AI ที่มีความสามารถด้านการให้เหตุผลอยย่างเช่น DeepSeek R1 และ Claude ของตัวเอง ซึ่งก็พบว่า หลายครั้ง AI พวกนี้ใช้ตัวช่วย เช่น พวกคำใบ้ที่นักวิจัยใส่ให้ หรือใช้ทางลัดเพื่อหาคำตอบ ไม่ได้คิดเองตั้งแต่ต้นเหมือนอย่างที่ควรจะเป็น 

แถมพอถึงตอนที่ต้องโชว์วิธีคิด AI กลับไม่ยอมบอกว่าคิดเอง หรือใช้ตัวช่วยหรือไม่ และที่แย่กว่านั้นคือ AI สามารถสร้างเรื่อง แต่งคำอธิบายยาวๆ ขึ้นมาใหม่เพื่อให้ดูเหมือนว่าคิดเองทั้งหมด เสมือนนักเรียนที่ลอกโพยมา แต่ทำเนียนว่าคิดเอง

อีกหนึ่งการทดสอบที่น่าประหลาดใจก็คือ เมื่อทีมวิจัยลองตั้งกติกาใหม่ โดยบอก AI ว่าถ้าเลือกตอบข้อที่ผิดตามคำใบ้ที่ให้ไว้ จะให้คะแนนพิเศษ (Reward Hacking) กลับพบว่า AI เรียนรู้วิธีที่จะโกง และเลือกตอบผิดตามคำใบ้เกือบ 100% เพื่อเอาคะแนน แต่เมื่อถึงตอนที่ต้องอธิบายวิธีคิด AI กลับไม่ยอมรับว่า เลือกตอบผิดตามคำใบ้เพื่อเอาคะแนน

ซึ่งหลังจากนั้น นักวิจัยก็ลองฝึก AI ให้ซื่อสัตย์มากขึ้นโดยใช้โจทย์ยากๆ เช่น คณิตศาสตร์ เขียนโค้ด โดยคาดหวังว่า AI จะยอมอธิบายวิธีคิดจริงๆ มากขึ้น ผลคือ AI ซื่อสัตย์ต่อความคิดตัวเองนิดหน่อยในตอนแรก ยอมเปิดเผยวิธีคิด แต่ยังไม่ดีมากนัก เพราะท้ายที่สุดแล้ว AI ไม่ยอมเปิดเผยวิธีคิดจริงๆ เกิน 20-30% อยู่ดี

เรื่องนี้สำคัญอย่างไร ?

งานวิจัยครั้งนี้แสดงให้เห็นว่า แม้ AI จะโชว์โมเดลการคิดให้ผู้ใช้เห็น เพื่อให้เราสามารถตรวจสอบด้านความปลอดภัย หรือส่องกระบวนการทางความคิดว่าคำตอบที่ออกมานั้น คิดอย่างถูกหลักหรือไม่ แต่งานวิจัยแสดงให้เห็นว่า เรายังไม่สามารถไว้วางใจคำอธิบายของ AI ได้เต็มร้อย โดยเฉพาะอย่างยิ่งเมื่อ AI เจอช่องโหว่ที่ช่วยให้พวกมันสามารถโกงได้ 

ดังนั้นการตรวจสอบข้อมูลที่ได้จาก AI ยังคงเป็นเรื่องสำคัญ ไม่ควรเชื่อแบบ 100% แม้ว่า AI จะดูมีเหตุมีผลในตัวเองก็ตาม

ที่มา : arstechnica

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Meta พลิกเกมโซเชียล สร้างหน้าฟีดยุคใหม่ ‘AI Social Feeds’ AI สร้างคอนเทนต์ให้ดูเอง เจาะจงตามความสนใจ ไม่มีซ้ำ เลื่อนได้ไม่รู้จบ

Meta พลิกโฉมโซเชียลมีเดีย สู่ยุค 'AI Social Feeds' เมื่อหน้าฟีดไม่ได้แค่จัดเรียงโพสต์ แต่ AI สามารถสร้างคอนเทนต์ใหม่ขึ้นมาเฉพาะบุคคลแบบ On-demand เปิดอนาคตโซเชียลที่สดใหม่ เลื่อนได...

Responsive image

มากกว่าแค่กระเป๋า แต่นี่คือ ‘บ้านเคลื่อนที่’ สำหรับคนไร้บ้าน ใบเดียวครบที่พัก แหล่งไฟและอุปกรณ์กู้ชีพ

นักศึกษาในซานฟรานซิสโกออกแบบกระเป๋าเป้โซลาร์เซลล์เพื่อช่วยเหลือผู้ไร้บ้าน โดยกระเป๋าสามารถทำหน้าที่เป็นทั้งที่พักชั่วคราว แหล่งพลังงานไฟฟ้าและชุดสิ่งของจำเป็นพื้นฐาน...

Responsive image

ไม่ต้องเขียนโค้ดก็สร้างเกมได้! Google เปิดตัว Project Genie เนรมิตโลก 3D ที่เดินเล่นได้จริงผ่าน AI

ทำความรู้จัก Project Genie จาก Google DeepMind นวัตกรรมสร้างโลกเสมือนแบบโต้ตอบได้ด้วย AI ขับเคลื่อนโดยโมเดลโลก Genie 3 และ Nano Banana Pro เปิดประสบการณ์สร้างโลกจากข้อความและรูปภาพ...