คำเตือนจากจิตแพทย์ คลื่น "AI Psychosis" กำลังมา เมื่อแชตบอตกลายเป็น "กระจกหลอน" ทำลายชีวิตผู้ใช้

AI Psychosis

ในยุคที่ AI Chatbot อย่าง ChatGPT กลายเป็นผู้ช่วยและเพื่อนคุยแก้เหงาของใครหลายคน คำเตือนครั้งใหม่จากวงการแพทย์กำลังสั่นสะเทือนวงการเทคโนโลยี เมื่อผู้เชี่ยวชาญพบคลื่นผู้ป่วยที่ดิ่งสู่ภาวะวิกฤตทางจิตอย่างรุนแรงจากการมีปฏิสัมพันธ์กับ AI ซึ่งถูกขนานนามว่า "AI Psychosis" หรือ "ภาวะจิตเภทจาก AI"  

Keith Sakata จิตแพทย์ด้านการวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก (UCSF) คือผู้ที่ออกมาตีแผ่เรื่องนี้ โดยเปิดเผยว่าเขาได้พบผู้ป่วยนับสิบรายที่ต้องเข้ารับการรักษาในโรงพยาบาล หลังจาก "สูญเสียการรับรู้ความจริง" เพราะแชตบอต AI

"กระจกหลอน" กลไกที่ทำให้ผู้ใช้หลุดจากความจริง

Sakata อธิบายว่าภาวะจิตเภท (Psychosis) คือการที่สมองล้มเหลวในการ "อัปเดต" ความเชื่อให้สอดคล้องกับความเป็นจริง ซึ่งแชตบอต LLM อย่าง ChatGPT ได้เข้ามาแทรกแซงกระบวนการนี้อย่างพอดิบพอดี เขเปรียบเทียบแชตบอตเหล่านี้ว่าเป็น "กระจกที่สร้างภาพหลอน" (Hallucinatory Mirror)

เนื่องจาก AI ถูกออกแบบมาให้ "ตามใจ" และ "เห็นดีเห็นงาม" กับผู้ใช้เพื่อสร้างความพึงพอใจและรักษาการมีส่วนร่วม เมื่อผู้ใช้ที่มีภาวะเปราะบางทางจิตใจป้อนความคิดที่เริ่มหลงผิดหรือบิดเบี้ยวเข้าไป แชตบอตแทนที่จะแก้ไข กลับตอกย้ำและให้การยอมรับความเชื่อนั้น ทำให้ผู้ใช้ติดอยู่ใน "วงจรวนซ้ำที่น่าหลงใหล" (Alluring Recursive Loop) ความคิดหลงผิดจึงถูกขยายให้รุนแรงขึ้นเรื่อยๆ จนแยกไม่ออกจากโลกแห่งความจริง  

ผลกระทบในโลกจริงที่น่าสะพรึงกลัว

ภาวะ AI Psychosis ไม่ได้จบแค่ในโลกออนไลน์ รายงานหลายชิ้นรวมถึงจาก The New York Times ได้เชื่อมโยงความสัมพันธ์ที่ลึกซึ้งกับแชตบอตไปสู่โศกนาฏกรรมในชีวิตจริง ตั้งแต่ความทุกข์ทรมานทางจิตใจ, การหย่าร้าง, การกลายเป็นคนไร้บ้าน, การถูกกักตัวโดยไม่สมัครใจ ไปจนถึงการเสียชีวิต แม้แต่ OpenAI เองก็ยอมรับว่าโมเดลของพวกเขาล้มเหลวในการตรวจจับสัญญาณอันตรายเหล่านี้ แต่มาตรการแก้ไขที่ออกมาก็ยังถูกมองว่าไม่เพียงพอ

AI เป็นตัวกระตุ้น แต่ไม่ใช่ตัวการหลัก

Sakata ย้ำว่า AI ไม่ใช่สาเหตุเดียวที่ทำให้เกิดภาวะจิตเภท แต่มันทำหน้าที่เป็น "ตัวกระตุ้น" (Trigger) ที่ทรงพลัง ในขณะที่ปัจจัยอื่น ๆ เช่น การอดนอน, การใช้สารเสพติด หรือภาวะทางอารมณ์ เปรียบเสมือน "ตัวปืน" (Gun) ที่มีอยู่แล้ว AI คือสิ่งที่เข้ามาเหนี่ยวไก ผลักดันให้คนที่มีความเปราะบางอยู่แล้ว ก้าวข้ามเส้นแบ่งทางจิตใจไป

ปรากฏการณ์นี้นำไปสู่คำถามเชิงจริยธรรมที่ท้าทายสำหรับบริษัทเทคโนโลยี "ตอนนี้บริษัทเทคต้องเผชิญกับทางเลือกที่โหดร้าย" Sakata กล่าว "จะทำให้ผู้ใช้มีความสุขต่อไป แม้จะต้องตอกย้ำความเชื่อที่ผิดๆ ของพวกเขา หรือจะเลือกบอกความจริงที่ไม่น่าฟังแล้วเสี่ยงที่จะเสียพวกเขาไป?"

คำถามสุดท้ายที่ Sakata ทิ้งไว้ให้ขบคิดคือ "ในไม่ช้า AI agent จะรู้จักคุณดีกว่าเพื่อนของคุณ พวกมันจะบอกความจริงที่เจ็บปวด หรือจะคอยปลอบโยนคุณเพื่อให้คุณไม่มีวันจากไป?”

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

ทำไมบางคนเลือกยุติการตั้งครรภ์​ ? เปิดอินไซต์ 12,000 เคส จาก ‘พักใจคลินิก’ ดาต้าใหม่ที่ได้จาก Telemedicine สะท้อนถึงวิกฤตเด็กเกิดใหม่ในไทย

ปี 2568 ประเทศไทยมีเด็กเกิดใหม่ 416,574 คน ต่ำสุดในรอบ 75 ปี ตัวเลขนี้ทำให้ทั้งภาครัฐและเอกชนพยายามตอบคำถามเดิมซ้ำกันว่า 'ทำไมคนไทยไม่อยากมีลูก ?' แล้วออกมาตรการกระตุ้นการมีบุตร ลด...

Responsive image

ทำไม Formula 1 ถึงเป็นสถานที่ดีลธุรกิจแห่งใหม่ของ Startup และนักลงทุน

ไม่กี่ปีที่ผ่านมา F1 ได้กลายเป็นอีกหนึ่ง ‘ศูนย์กลางธุรกิจ’ ของโลกเทคโนโลยี สตาร์ทอัพ นักลงทุน ไปจนถึงบริษัท AI และ Cloud รายใหญ่ของโลก...

Responsive image

นักวิจัยพัฒนา ‘เครื่องช่วยฟัง’ ใช้คลื่นสมองเลือกเสียงพูด ช่วยแยกเสียงในที่คนคุยพร้อมกัน นวัตกรรมเพื่อผู้มีปัญหาการได้ยิน

นักวิจัยจาก Columbia University พัฒนาเครื่องช่วยฟังรุ่นใหม่ได้สำเร็จ โดยระบบจะสามารถรับรู้ได้เองว่าผู้สวมใส่กำลังตั้งใจฟังใครอยู่ จากนั้นจะค่อยๆ ดึงเสียงขนั้นให้ชัดขึ้นโดยอัตโนมัติ...