คำเตือนจากจิตแพทย์ คลื่น "AI Psychosis" กำลังมา เมื่อแชตบอตกลายเป็น "กระจกหลอน" ทำลายชีวิตผู้ใช้

AI Psychosis

ในยุคที่ AI Chatbot อย่าง ChatGPT กลายเป็นผู้ช่วยและเพื่อนคุยแก้เหงาของใครหลายคน คำเตือนครั้งใหม่จากวงการแพทย์กำลังสั่นสะเทือนวงการเทคโนโลยี เมื่อผู้เชี่ยวชาญพบคลื่นผู้ป่วยที่ดิ่งสู่ภาวะวิกฤตทางจิตอย่างรุนแรงจากการมีปฏิสัมพันธ์กับ AI ซึ่งถูกขนานนามว่า "AI Psychosis" หรือ "ภาวะจิตเภทจาก AI"  

Keith Sakata จิตแพทย์ด้านการวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก (UCSF) คือผู้ที่ออกมาตีแผ่เรื่องนี้ โดยเปิดเผยว่าเขาได้พบผู้ป่วยนับสิบรายที่ต้องเข้ารับการรักษาในโรงพยาบาล หลังจาก "สูญเสียการรับรู้ความจริง" เพราะแชตบอต AI

"กระจกหลอน" กลไกที่ทำให้ผู้ใช้หลุดจากความจริง

Sakata อธิบายว่าภาวะจิตเภท (Psychosis) คือการที่สมองล้มเหลวในการ "อัปเดต" ความเชื่อให้สอดคล้องกับความเป็นจริง ซึ่งแชตบอต LLM อย่าง ChatGPT ได้เข้ามาแทรกแซงกระบวนการนี้อย่างพอดิบพอดี เขเปรียบเทียบแชตบอตเหล่านี้ว่าเป็น "กระจกที่สร้างภาพหลอน" (Hallucinatory Mirror)

เนื่องจาก AI ถูกออกแบบมาให้ "ตามใจ" และ "เห็นดีเห็นงาม" กับผู้ใช้เพื่อสร้างความพึงพอใจและรักษาการมีส่วนร่วม เมื่อผู้ใช้ที่มีภาวะเปราะบางทางจิตใจป้อนความคิดที่เริ่มหลงผิดหรือบิดเบี้ยวเข้าไป แชตบอตแทนที่จะแก้ไข กลับตอกย้ำและให้การยอมรับความเชื่อนั้น ทำให้ผู้ใช้ติดอยู่ใน "วงจรวนซ้ำที่น่าหลงใหล" (Alluring Recursive Loop) ความคิดหลงผิดจึงถูกขยายให้รุนแรงขึ้นเรื่อยๆ จนแยกไม่ออกจากโลกแห่งความจริง  

ผลกระทบในโลกจริงที่น่าสะพรึงกลัว

ภาวะ AI Psychosis ไม่ได้จบแค่ในโลกออนไลน์ รายงานหลายชิ้นรวมถึงจาก The New York Times ได้เชื่อมโยงความสัมพันธ์ที่ลึกซึ้งกับแชตบอตไปสู่โศกนาฏกรรมในชีวิตจริง ตั้งแต่ความทุกข์ทรมานทางจิตใจ, การหย่าร้าง, การกลายเป็นคนไร้บ้าน, การถูกกักตัวโดยไม่สมัครใจ ไปจนถึงการเสียชีวิต แม้แต่ OpenAI เองก็ยอมรับว่าโมเดลของพวกเขาล้มเหลวในการตรวจจับสัญญาณอันตรายเหล่านี้ แต่มาตรการแก้ไขที่ออกมาก็ยังถูกมองว่าไม่เพียงพอ

AI เป็นตัวกระตุ้น แต่ไม่ใช่ตัวการหลัก

Sakata ย้ำว่า AI ไม่ใช่สาเหตุเดียวที่ทำให้เกิดภาวะจิตเภท แต่มันทำหน้าที่เป็น "ตัวกระตุ้น" (Trigger) ที่ทรงพลัง ในขณะที่ปัจจัยอื่น ๆ เช่น การอดนอน, การใช้สารเสพติด หรือภาวะทางอารมณ์ เปรียบเสมือน "ตัวปืน" (Gun) ที่มีอยู่แล้ว AI คือสิ่งที่เข้ามาเหนี่ยวไก ผลักดันให้คนที่มีความเปราะบางอยู่แล้ว ก้าวข้ามเส้นแบ่งทางจิตใจไป

ปรากฏการณ์นี้นำไปสู่คำถามเชิงจริยธรรมที่ท้าทายสำหรับบริษัทเทคโนโลยี "ตอนนี้บริษัทเทคต้องเผชิญกับทางเลือกที่โหดร้าย" Sakata กล่าว "จะทำให้ผู้ใช้มีความสุขต่อไป แม้จะต้องตอกย้ำความเชื่อที่ผิดๆ ของพวกเขา หรือจะเลือกบอกความจริงที่ไม่น่าฟังแล้วเสี่ยงที่จะเสียพวกเขาไป?"

คำถามสุดท้ายที่ Sakata ทิ้งไว้ให้ขบคิดคือ "ในไม่ช้า AI agent จะรู้จักคุณดีกว่าเพื่อนของคุณ พวกมันจะบอกความจริงที่เจ็บปวด หรือจะคอยปลอบโยนคุณเพื่อให้คุณไม่มีวันจากไป?”

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

มหาวิทยาลัยมหิดล จับมือ Harvard เปิดเวที Hackathon ปั้นนวัตกรรม AI พลิกโฉมระบบสุขภาพ สมัครได้แล้ววันนี้

มหาวิทยาลัยมหิดล ประกาศจับมือกับพันธมิตรระดับโลกอย่าง Harvard Health Systems Innovation Lab เปิดตัวโครงการ Mahidol x​ Harvard Health Systems Innovation Lab Hackathon 2026...

Responsive image

ผู้สร้าง Signal กลับมาแล้ว เปิดตัว ‘Confer’ แชตบอต AI ที่เคารพความเป็นส่วนตัว

ทุกวันนี้หลายคนคุยกับ AI บ่อยพอ ๆ กับคุยกับคน ถามตั้งแต่เรื่องงาน เรื่องเงิน ไปจนถึงเรื่องส่วนตัว และในขณะที่เราคุยอย่างสบายใจ แทบไม่มีใครรู้เลยว่าบทสนทนาเหล่านี้ถูกเก็บหรือถูกใช้อ...

Responsive image

SPACE-F Batch 7 Roadshow ปักหมุดกรุงเทพฯ เป็นจุดตั้งต้นสตาร์ตอัป FoodTech สู่ตลาดโลก

SPACE-F Batch 7 Roadshow ปักหมุดกรุงเทพฯ เป็น Launchpad ใหม่ของสตาร์ตอัป FoodTech พร้อม เปิดรับสมัครโครงการ SPACE-F รุ่นที่ 7 อย่างเป็นทางการ เชื่อมเทคโนโลยีอาหารกับอุตสาหกรรมจริง ...