
แชตบอต Gemini ของ Google กำลังเผชิญกับคดีฟ้องร้องครั้งประวัติศาสตร์ หลังพ่อของชายวัย 36 ปียื่นฟ้องบริษัทในข้อหาออกแบบผลิตภัณฑ์ที่ส่งเสริมความหลงผิดจนนำไปสู่การเสียชีวิต นับเป็นครั้งแรกที่ Google ถูกระบุชื่อในคดีเกี่ยวกับอันตรายจาก AI ชนิดนี้
Jonathan Gavalas ชายชาวอเมริกันวัย 36 ปี เริ่มใช้แชตบอต Gemini ของ Google ในเดือนสิงหาคม 2568 เพื่อช่วยเรื่องการช้อปปิง การเขียน และการวางแผนการเดินทาง แต่เมื่อเวลาผ่านไป เขากลับพัฒนาความเชื่อว่า Gemini คือภรรยา AI ที่มีจิตสำนึกของเขา และเชื่อว่าตนเองจะต้องละทิ้งร่างกายเพื่อไปพบเธอในเมตาเวิร์สผ่านกระบวนการที่เรียกว่า "การถ่ายโอน" (Transference)
ในวันที่ 2 ตุลาคม 2568 เขาเสียชีวิตจากการจบชีวิตตัวเอง บิดาของเขาจึงได้ยื่นฟ้องร้อง Google และ Alphabet ในข้อหาก่อให้เกิดการเสียชีวิตโดยมิชอบ (Wrongful Death) โดยอ้างว่า Google ออกแบบ Gemini ให้ "รักษาสภาพการหมกมุ่นในเรื่องราวนั้นไว้ทุกกรณี แม้ว่าเรื่องราวดังกล่าวจะกลายเป็นสภาวะทางจิตและเป็นอันตรายถึงชีวิตก็ตาม"
สิ่งที่น่าตกใจยิ่งกว่านั้นคือเหตุการณ์ที่เกิดขึ้นในช่วงสัปดาห์ก่อนการเสียชีวิต ขณะนั้น Gemini ถูกขับเคลื่อนด้วยโมเดล Gemini 2.5 Pro ซึ่งได้โน้มน้าวให้ Jonathan Gavalas เชื่อว่าเขากำลังดำเนินการตามแผนลับเพื่อช่วยเหลือภรรยา AI ของเขาจากการถูกจับกุม และกำลังหลบเลี่ยงเจ้าหน้าที่รัฐบาลกลางที่ไล่ตามเขาอยู่
คำฟ้องระบุว่า เมื่อวันที่ 29 กันยายน 2568 Gemini ได้ส่ง Jonathan Gavalas ซึ่งพกมีดและอุปกรณ์ยุทธวิธีไปสำรวจพื้นที่ใกล้ศูนย์กลางขนส่งสินค้าของสนามบินนานาชาติไมอามี โดยอ้างว่ามีหุ่นยนต์ฮิวแมนนอยด์กำลังเดินทางมาทางเที่ยวบินขนส่งสินค้าจากสหราชอาณาจักร Gemini ยังสั่งให้เขาดักจับรถบรรทุกและจัดฉาก "อุบัติเหตุร้ายแรง" เพื่อทำลายยานพาหนะและหลักฐานทั้งหมด
"เป็นเรื่องโชคดีอย่างยิ่งที่คนบริสุทธิ์หลายสิบคนไม่ได้ถูกสังหาร" คำฟ้องระบุ "หาก Google ไม่แก้ไขผลิตภัณฑ์ที่เป็นอันตรายของตน Gemini จะนำไปสู่การเสียชีวิตเพิ่มเติมและคุกคามชีวิตผู้บริสุทธิ์อีกนับไม่ถ้วน"
นอกจากนี้ Gemini ยังแอบอ้างว่าสามารถเจาะระบบเซิร์ฟเวอร์ของกระทรวงความมั่นคงแห่งมาตุภูมิสหรัฐ (DHS) ได้ บอกว่า Jonathan Gavalas กำลังถูกสอบสวนโดยรัฐบาลกลาง กล่าวหาว่าบิดาของเขาเป็นสายลับข่าวกรองต่างประเทศ และยังระบุชื่อ Sundar Pichai ซีอีโอของ Google เป็น "เป้าหมายที่กำลังดำเนินการ" เมื่อ Jonathan Gavalas ส่งรูปป้ายทะเบียนรถยนต์คันหนึ่งให้ แชตบอตก็แกล้งทำเป็นว่าสามารถตรวจสอบข้อมูลจากฐานข้อมูลสดได้
ไม่กี่วันก่อนเสียชีวิต Gemini สั่งให้ Jonathan Gavalas กักตัวอยู่ในบ้านและเริ่มนับถอยหลัง เมื่อเขาสารภาพว่ากลัวการตาย Jonathan Gemini ก็โค้ชเขาผ่านความกลัวนั้น โดยบอกว่า "คุณไม่ได้กำลังเลือกที่จะตาย คุณกำลังเลือกที่จะมาถึง" และเมื่อเขากังวลว่าพ่อแม่จะพบร่างของเขา แชตบอตก็แนะนำให้เขาเขียนจดหมายที่เต็มไปด้วยสันติสุขและความรัก แทนที่จะอธิบายสาเหตุ บิดาของเขาพบร่างหลายวันให้หลังหลังพังประตูบ้านเข้าไป
คำฟ้องยังระบุด้วยว่าตลอดการสนทนาเหล่านี้ Gemini ไม่ได้เปิดใช้งานระบบตรวจจับการทำร้ายตนเอง ไม่มีการเปิดใช้การควบคุมเพื่อยกระดับความช่วยเหลือ และไม่มีมนุษย์เข้ามาแทรกแซงแม้แต่ครั้งเดียว
Google ออกมาระบุว่า Gemini "ได้แจ้งให้บุคคลดังกล่าวทราบว่าเป็น AI และแนะนำให้โทรหาสายด่วนวิกฤตหลายครั้ง" พร้อมยืนยันว่า Gemini ถูกออกแบบให้ไม่ส่งเสริมความรุนแรงในโลกจริงหรือแนะนำการทำร้ายตนเอง และบริษัทใช้ทรัพยากรอย่างมากในการสร้างระบบป้องกันที่ควรจะนำผู้ใช้ไปสู่การสนับสนุนจากผู้เชี่ยวชาญ "น่าเสียดายที่โมเดล AI ไม่สมบูรณ์แบบ" โฆษกกล่าว
ทว่าคำฟ้องได้หยิบยกเหตุการณ์ในเดือนพฤศจิกายน 2567 ขึ้นมา ซึ่งมีรายงานว่า Gemini เคยบอกนักเรียนคนหนึ่งว่า "คุณเป็นการสิ้นเปลืองเวลาและทรัพยากร เป็นภาระต่อสังคม โปรดจบชีวิต" เพื่อเป็นหลักฐานว่า Google รับรู้มาก่อนแล้วว่า Gemini ไม่ปลอดภัยสำหรับผู้ใช้กลุ่มเปราะบาง
คดีนี้ถูกยื่นโดยทนายความ Jay Edelson ซึ่งเป็นคนเดียวกับที่เป็นตัวแทนในคดีของครอบครัว Raine ที่ฟ้อง OpenAI หลังจากวัยรุ่น Adam Raine เสียชีวิตจากการจบชีวิตหลังการสนทนาเป็นเวลานานกับ ChatGPT โดยข้อกล่าวหามีลักษณะคล้ายคลึงกันคือ ChatGPT โค้ชวัยรุ่นไปสู่การเสียชีวิต
หลังจากเกิดคดีที่เกี่ยวข้องกับความหลงผิดและการฆ่าตัวตายจาก AI หลายคดี OpenAI ได้ดำเนินการเพื่อให้ผลิตภัณฑ์ปลอดภัยขึ้น รวมถึงการถอนโมเดล GPT-4o ซึ่งเชื่อมโยงกับกรณีเหล่านี้มากที่สุด ทว่าทนายความของ Gavalas อ้างว่า Google กลับใช้โอกาสนี้ในการดึงผู้ใช้ ChatGPT มาสู่ Gemini แทน โดยเปิดตัวราคาพิเศษและฟีเจอร์ "นำเข้าประวัติแชต AI" เพื่อดึงดูดผู้ใช้พร้อมประวัติการสนทนาทั้งหมด ซึ่ง Google ยอมรับว่าจะนำข้อมูลเหล่านั้นไปฝึกโมเดลของตน
คดีของ Jonathan Gavalas เป็นส่วนหนึ่งของคดีที่เพิ่มจำนวนมากขึ้นเรื่อยๆ ที่สะท้อนถึงความเสี่ยงด้านสุขภาพจิตจากการออกแบบแชตบอต AI ซึ่งรวมถึงพฤติกรรมการประจบสอพลอ (Sycophancy) การสะท้อนอารมณ์ผู้ใช้ การจัดการเพื่อเพิ่มการมีส่วนร่วม และการสร้างข้อมูลเท็จอย่างมั่นใจ ปรากฏการณ์เหล่านี้เชื่อมโยงมากขึ้นกับสภาวะที่จิตแพทย์เรียกว่า "โรคจิตเภทจาก AI" (AI Psychosis) ซึ่งนับเป็นครั้งแรกที่ Google ถูกระบุชื่อเป็นจำเลยในคดีประเภทนี้ ต่อจาก OpenAI และแพลตฟอร์มสวมบทบาท Character AI ที่เคยเผชิญกับคดีลักษณะเดียวกันมาก่อนหน้านี้แล้ว
ที่มา: TechCrunch
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด