เกิดกระแสในโซเชียลมีเดียอีกครั้งเกี่ยวกับการตั้งคำถามถึง ความรู้สึกนึกคิดและจิตสำนึกของ AI โดยหลังจากที่ Blake Lemoine วิศวกรซอฟต์แวร์อาวุโสของ Google ได้นำเสนอข้อมูลการสนทนาของเขากับ LaMDA หรือ Language Modeling Dialouge Application แบบจำลองภาษาสำหรับแอปพลิเคชันการสนทนาของ Google เปิดเผยต่อสาธารณะ ด้วยความเชื่อของเขาที่ว่าว่าระบบปฏิบัติการภายใต้แชทบ็อตนั้น "มีความรู้สึก" ทั้งนี้นักจริยธรรมและเทคโนโลยีของ Google ปฏิเสธว่าไม่มีหลักฐานสนับสนุนต่อคำกล่าวอ้างดังกล่าว
โฆษกของ Google กล่าวว่า "บางคนในชุมชน AI อาจวิจัยความเป็นไปได้ในระยะยาวของ AI ที่มีความรู้สึก แต่ก็ไม่สมเหตุสมผลที่จะทำเช่นนั้นด้วยการปรับเปลี่ยนรูปแบบการโต้ตอบของ AI ในปัจจุบันที่ยังไม่มีความรู้สึกแต่อย่างใด"
ทั้งนี้นักจริยธรรมและเทคโนโลยีของ Google กล่าวว่า "ได้ทำการตรวจสอบข้อกังวลของ Blake ตามหลักการ AI ของเราแล้ว และได้แจ้งแก่เขาว่าไม่มีหลักฐานสนับสนุนต่อคำกล่าวอ้าง"
การเปิดเผยข้อมูลของ Lemoine ได้จุดกระแสของการถกเถียง เรื่องสติปัญญาของปัญญาประดิษฐ์อีกครั้ง สื่อหลายสำนักเริ่มตั้งประเด็นอย่างแพร่หลาย ทำให้เกิดการอภิปรายอย่างกว้างขวางในโซเชียลมีเดียเกี่ยวกับความสามารถของปัญญาประดิษฐ์ บรรดาผู้เชี่ยวชาญหลายท่านแสดงความคิดเห็นและตั้งคำถามโต้แย้งเกี่ยวกับการข้อเสนอของ Lemoine
ก่อนหน้านี้แนวคิดกระแสหลักของการถกเถียงเรื่อง AI มักจะถูกยืดโยงอยู่กับภาพจำของการนำไปเปรียบเทียบในนวนิยายวิทยาศาสตร์ เห็นได้อย่างชัดเจนจากการถ่ายทอดความสามารถที่เหนือขั้นของหุ่นยนต์ในภาพยนตร์ ทำให้องค์ความรู้เกี่ยวกับปัญญาประดิษฐ์ไม่เป็นที่แพร่หหลายอย่างลึกซึ้งสำหรับบุคคลทั่วไป
อย่างไรก็ตาม หากกล่าวถึงระบบแชทบ็อทล่าสุดที่มีความสามารถในการแปลภาษาและโต้ตอบที่เหนือชั้นกว่าระบบที่เคยมีมา GPT-3 Language Model ที่สร้างโดยบริษัท OpenAI หรือ Google Assistant ที่พัฒนาก่อนหน้า LaMDA อาจทำให้เห็นภาพที่ชัดเจนของความสามารถในการคิดและพูดคล้ายมนุษย์
Bart Selman ศาสตราจารย์ด้านระบบคอมพิวเตอร์ที่มหาวิทยาลัยคอร์เนล กล่าวว่า "ในมุมมองวิทยาศาสตร์ก็ยังไม่สามารถสรุปได้ว่าเป็นสิ่งเดียวกับสติปัญญาหรือจิตสำนึกของมนุษย์”
“AI ไม่เพียงแต่ช่วยให้มนุษย์ในการตัดสินใจที่แม่นยำ แต่ยังเป็นการวนซ้ำของข้อมูลเชิงระบบที่ได้รับการฝึกอบรม หลักฐานบ่งชี้ว่าเป็นเพียงระบบที่มีความสามารถสูงในการเลียนแบบมนุษย์ ไม่ใช่ความรู้สึก ”
ทางด้าน Max Kreminski นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานตาครูซ ผู้ศึกษาด้านสื่อคอมพิวเตอร์ได้กล่าวว่า สถาปัตยกรรมเชิงระบบของ LaMDA นั้นเรียบง่าย เพียงแต่ไม่สนับสนุนความสามารถหลักบางอย่างของจิตสำนึกที่เหมือนมนุษย์ และหาก LaMDA มีระบบปฏิบัติการเหมือนกับโมเดลภาษาขนาดใหญ่อื่นๆ โปรแกรมจะยังไม่เรียนรู้ถึงส่วนของการมีปฏิสัมพันธ์กับผู้ใช้ที่เป็นมนุษย์ เพราะ "ระบบการประมวลผล Neural Network ของมนุษย์ที่ถูกมาปรับใช้นั้นยังไม่มีการพัฒนาต่อ" นอกจากนี้ยังไม่มีพื้นที่จัดเก็บข้อมูลระยะยาวรูปแบบอื่นที่สามารถเขียนข้อมูลได้ ซึ่งนั่นหมายความว่า LaMDA ไม่ได้มีชุดข้อมูลมากเพียงพอที่จะประมวลผลราวกับมนุษย์ได้
ท้ายที่สุดแล้วนักวิจัยกล่าวว่า เนื่องจากเทคโนโลยี LaMDA ของ Google และข้อมูลหลายอย่างไม่ได้เปิดเผยสู่สาธารณะ เป็นเพียงแค่การเปิดเผยจากบุคลากรภายในองค์เพียงเท่านั้น โดยภายหลัง Blake Lemoine ได้ขอคำปรึกษาจากผู้เชี่ยวชาญ AI จากภายนอก Google รวมถึงบางคนในรัฐบาลสหรัฐฯ เพื่อรับมือกับสถานการณ์ดังกล่าว เนื่องจาก บริษัทได้สั่งให้เขาพักงาน เนื่องจากกล่าวหาว่าเขาละเมิดนโยบายในการรักษาความลับ ซึ่ง Lemoine ได้ตีความการกระทำดังกล่าวว่า "มักเป็นสิ่งที่ Google ทำเพื่อรอการไล่ออก"
อ้างอิง
Google Debate Over ‘Sentient’ Bots Overshadows Deeper AI Issues
Google places engineer on leave after he claims group’s chatbot is ‘sentient’
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด