เกิดกระแสในโซเชียลมีเดียอีกครั้งเกี่ยวกับการตั้งคำถามถึง ความรู้สึกนึกคิดและจิตสำนึกของ AI โดยหลังจากที่ Blake Lemoine วิศวกรซอฟต์แวร์อาวุโสของ Google ได้นำเสนอข้อมูลการสนทนาของเขากับ LaMDA หรือ Language Modeling Dialouge Application แบบจำลองภาษาสำหรับแอปพลิเคชันการสนทนาของ Google เปิดเผยต่อสาธารณะ ด้วยความเชื่อของเขาที่ว่าว่าระบบปฏิบัติการภายใต้แชทบ็อตนั้น "มีความรู้สึก" ทั้งนี้นักจริยธรรมและเทคโนโลยีของ Google ปฏิเสธว่าไม่มีหลักฐานสนับสนุนต่อคำกล่าวอ้างดังกล่าว
โฆษกของ Google กล่าวว่า "บางคนในชุมชน AI อาจวิจัยความเป็นไปได้ในระยะยาวของ AI ที่มีความรู้สึก แต่ก็ไม่สมเหตุสมผลที่จะทำเช่นนั้นด้วยการปรับเปลี่ยนรูปแบบการโต้ตอบของ AI ในปัจจุบันที่ยังไม่มีความรู้สึกแต่อย่างใด"
ทั้งนี้นักจริยธรรมและเทคโนโลยีของ Google กล่าวว่า "ได้ทำการตรวจสอบข้อกังวลของ Blake ตามหลักการ AI ของเราแล้ว และได้แจ้งแก่เขาว่าไม่มีหลักฐานสนับสนุนต่อคำกล่าวอ้าง"
การเปิดเผยข้อมูลของ Lemoine ได้จุดกระแสของการถกเถียง เรื่องสติปัญญาของปัญญาประดิษฐ์อีกครั้ง สื่อหลายสำนักเริ่มตั้งประเด็นอย่างแพร่หลาย ทำให้เกิดการอภิปรายอย่างกว้างขวางในโซเชียลมีเดียเกี่ยวกับความสามารถของปัญญาประดิษฐ์ บรรดาผู้เชี่ยวชาญหลายท่านแสดงความคิดเห็นและตั้งคำถามโต้แย้งเกี่ยวกับการข้อเสนอของ Lemoine
ก่อนหน้านี้แนวคิดกระแสหลักของการถกเถียงเรื่อง AI มักจะถูกยืดโยงอยู่กับภาพจำของการนำไปเปรียบเทียบในนวนิยายวิทยาศาสตร์ เห็นได้อย่างชัดเจนจากการถ่ายทอดความสามารถที่เหนือขั้นของหุ่นยนต์ในภาพยนตร์ ทำให้องค์ความรู้เกี่ยวกับปัญญาประดิษฐ์ไม่เป็นที่แพร่หหลายอย่างลึกซึ้งสำหรับบุคคลทั่วไป
อย่างไรก็ตาม หากกล่าวถึงระบบแชทบ็อทล่าสุดที่มีความสามารถในการแปลภาษาและโต้ตอบที่เหนือชั้นกว่าระบบที่เคยมีมา GPT-3 Language Model ที่สร้างโดยบริษัท OpenAI หรือ Google Assistant ที่พัฒนาก่อนหน้า LaMDA อาจทำให้เห็นภาพที่ชัดเจนของความสามารถในการคิดและพูดคล้ายมนุษย์
Bart Selman ศาสตราจารย์ด้านระบบคอมพิวเตอร์ที่มหาวิทยาลัยคอร์เนล กล่าวว่า "ในมุมมองวิทยาศาสตร์ก็ยังไม่สามารถสรุปได้ว่าเป็นสิ่งเดียวกับสติปัญญาหรือจิตสำนึกของมนุษย์”
“AI ไม่เพียงแต่ช่วยให้มนุษย์ในการตัดสินใจที่แม่นยำ แต่ยังเป็นการวนซ้ำของข้อมูลเชิงระบบที่ได้รับการฝึกอบรม หลักฐานบ่งชี้ว่าเป็นเพียงระบบที่มีความสามารถสูงในการเลียนแบบมนุษย์ ไม่ใช่ความรู้สึก ”
ทางด้าน Max Kreminski นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานตาครูซ ผู้ศึกษาด้านสื่อคอมพิวเตอร์ได้กล่าวว่า สถาปัตยกรรมเชิงระบบของ LaMDA นั้นเรียบง่าย เพียงแต่ไม่สนับสนุนความสามารถหลักบางอย่างของจิตสำนึกที่เหมือนมนุษย์ และหาก LaMDA มีระบบปฏิบัติการเหมือนกับโมเดลภาษาขนาดใหญ่อื่นๆ โปรแกรมจะยังไม่เรียนรู้ถึงส่วนของการมีปฏิสัมพันธ์กับผู้ใช้ที่เป็นมนุษย์ เพราะ "ระบบการประมวลผล Neural Network ของมนุษย์ที่ถูกมาปรับใช้นั้นยังไม่มีการพัฒนาต่อ" นอกจากนี้ยังไม่มีพื้นที่จัดเก็บข้อมูลระยะยาวรูปแบบอื่นที่สามารถเขียนข้อมูลได้ ซึ่งนั่นหมายความว่า LaMDA ไม่ได้มีชุดข้อมูลมากเพียงพอที่จะประมวลผลราวกับมนุษย์ได้
ท้ายที่สุดแล้วนักวิจัยกล่าวว่า เนื่องจากเทคโนโลยี LaMDA ของ Google และข้อมูลหลายอย่างไม่ได้เปิดเผยสู่สาธารณะ เป็นเพียงแค่การเปิดเผยจากบุคลากรภายในองค์เพียงเท่านั้น โดยภายหลัง Blake Lemoine ได้ขอคำปรึกษาจากผู้เชี่ยวชาญ AI จากภายนอก Google รวมถึงบางคนในรัฐบาลสหรัฐฯ เพื่อรับมือกับสถานการณ์ดังกล่าว เนื่องจาก บริษัทได้สั่งให้เขาพักงาน เนื่องจากกล่าวหาว่าเขาละเมิดนโยบายในการรักษาความลับ ซึ่ง Lemoine ได้ตีความการกระทำดังกล่าวว่า "มักเป็นสิ่งที่ Google ทำเพื่อรอการไล่ออก"
อ้างอิง
Google Debate Over ‘Sentient’ Bots Overshadows Deeper AI Issues
Google places engineer on leave after he claims group’s chatbot is ‘sentient’