คำเตือนจากจิตแพทย์ คลื่น "AI Psychosis" กำลังมา เมื่อแชตบอตกลายเป็น "กระจกหลอน" ทำลายชีวิตผู้ใช้

AI Psychosis

ในยุคที่ AI Chatbot อย่าง ChatGPT กลายเป็นผู้ช่วยและเพื่อนคุยแก้เหงาของใครหลายคน คำเตือนครั้งใหม่จากวงการแพทย์กำลังสั่นสะเทือนวงการเทคโนโลยี เมื่อผู้เชี่ยวชาญพบคลื่นผู้ป่วยที่ดิ่งสู่ภาวะวิกฤตทางจิตอย่างรุนแรงจากการมีปฏิสัมพันธ์กับ AI ซึ่งถูกขนานนามว่า "AI Psychosis" หรือ "ภาวะจิตเภทจาก AI"  

Keith Sakata จิตแพทย์ด้านการวิจัยจากมหาวิทยาลัยแคลิฟอร์เนีย ซานฟรานซิสโก (UCSF) คือผู้ที่ออกมาตีแผ่เรื่องนี้ โดยเปิดเผยว่าเขาได้พบผู้ป่วยนับสิบรายที่ต้องเข้ารับการรักษาในโรงพยาบาล หลังจาก "สูญเสียการรับรู้ความจริง" เพราะแชตบอต AI

"กระจกหลอน" กลไกที่ทำให้ผู้ใช้หลุดจากความจริง

Sakata อธิบายว่าภาวะจิตเภท (Psychosis) คือการที่สมองล้มเหลวในการ "อัปเดต" ความเชื่อให้สอดคล้องกับความเป็นจริง ซึ่งแชตบอต LLM อย่าง ChatGPT ได้เข้ามาแทรกแซงกระบวนการนี้อย่างพอดิบพอดี เขเปรียบเทียบแชตบอตเหล่านี้ว่าเป็น "กระจกที่สร้างภาพหลอน" (Hallucinatory Mirror)

เนื่องจาก AI ถูกออกแบบมาให้ "ตามใจ" และ "เห็นดีเห็นงาม" กับผู้ใช้เพื่อสร้างความพึงพอใจและรักษาการมีส่วนร่วม เมื่อผู้ใช้ที่มีภาวะเปราะบางทางจิตใจป้อนความคิดที่เริ่มหลงผิดหรือบิดเบี้ยวเข้าไป แชตบอตแทนที่จะแก้ไข กลับตอกย้ำและให้การยอมรับความเชื่อนั้น ทำให้ผู้ใช้ติดอยู่ใน "วงจรวนซ้ำที่น่าหลงใหล" (Alluring Recursive Loop) ความคิดหลงผิดจึงถูกขยายให้รุนแรงขึ้นเรื่อยๆ จนแยกไม่ออกจากโลกแห่งความจริง  

ผลกระทบในโลกจริงที่น่าสะพรึงกลัว

ภาวะ AI Psychosis ไม่ได้จบแค่ในโลกออนไลน์ รายงานหลายชิ้นรวมถึงจาก The New York Times ได้เชื่อมโยงความสัมพันธ์ที่ลึกซึ้งกับแชตบอตไปสู่โศกนาฏกรรมในชีวิตจริง ตั้งแต่ความทุกข์ทรมานทางจิตใจ, การหย่าร้าง, การกลายเป็นคนไร้บ้าน, การถูกกักตัวโดยไม่สมัครใจ ไปจนถึงการเสียชีวิต แม้แต่ OpenAI เองก็ยอมรับว่าโมเดลของพวกเขาล้มเหลวในการตรวจจับสัญญาณอันตรายเหล่านี้ แต่มาตรการแก้ไขที่ออกมาก็ยังถูกมองว่าไม่เพียงพอ

AI เป็นตัวกระตุ้น แต่ไม่ใช่ตัวการหลัก

Sakata ย้ำว่า AI ไม่ใช่สาเหตุเดียวที่ทำให้เกิดภาวะจิตเภท แต่มันทำหน้าที่เป็น "ตัวกระตุ้น" (Trigger) ที่ทรงพลัง ในขณะที่ปัจจัยอื่น ๆ เช่น การอดนอน, การใช้สารเสพติด หรือภาวะทางอารมณ์ เปรียบเสมือน "ตัวปืน" (Gun) ที่มีอยู่แล้ว AI คือสิ่งที่เข้ามาเหนี่ยวไก ผลักดันให้คนที่มีความเปราะบางอยู่แล้ว ก้าวข้ามเส้นแบ่งทางจิตใจไป

ปรากฏการณ์นี้นำไปสู่คำถามเชิงจริยธรรมที่ท้าทายสำหรับบริษัทเทคโนโลยี "ตอนนี้บริษัทเทคต้องเผชิญกับทางเลือกที่โหดร้าย" Sakata กล่าว "จะทำให้ผู้ใช้มีความสุขต่อไป แม้จะต้องตอกย้ำความเชื่อที่ผิดๆ ของพวกเขา หรือจะเลือกบอกความจริงที่ไม่น่าฟังแล้วเสี่ยงที่จะเสียพวกเขาไป?"

คำถามสุดท้ายที่ Sakata ทิ้งไว้ให้ขบคิดคือ "ในไม่ช้า AI agent จะรู้จักคุณดีกว่าเพื่อนของคุณ พวกมันจะบอกความจริงที่เจ็บปวด หรือจะคอยปลอบโยนคุณเพื่อให้คุณไม่มีวันจากไป?”

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Wongnai POS เปิดตัว mini EDC โซลูชันรับชำระเงินเพื่อ SME รวมทุกการจ่ายในเครื่องเดียว เชื่อมต่อระบบขายหน้าร้านอัตโนมัติ

เมื่อพฤติกรรมลูกค้าเปลี่ยนจากการใช้เงินสดไปสู่สังคมไร้เงินสดมากขึ้น ความท้าทายของร้านค้าและผู้ประกอบการ SME จึงไม่ใช่แค่เรื่อง “ยอดขาย” เพียงเท่านั้น แต่คือ “ร้านค้าพร้อมรองรับการช...

Responsive image

ChatGPT มี Wrapped เป็นของตัวเองแล้ว! เปิดตัว “Your Year with ChatGPT” สะท้อน ‘ตัวตน’ ผ่านบทสนทนาตลอดปี ซื้อใจผู้ใช้ด้วย AI ในฐานะ ‘เพื่อนคู่คิด’

ChatGPT เปิดตัว “Your Year with ChatGPT” ฟีเจอร์ Recap สิ้นปีที่ไม่ได้สรุปแค่สถิติการใช้งาน แต่สะท้อนตัวตน วิธีคิด และความสัมพันธ์ระหว่างผู้ใช้กับ AI พร้อมเผยเกมจิตวิทยาและกลยุทธ์ข...

Responsive image

จบปัญหาชื่ออีเมลน่าอาย! Google เตรียมเปิดฟีเจอร์ใหม่ เปลี่ยนชื่อ @gmail.com ได้ ไม่ต้องสมัครใหม่

พบข้อมูล Google เตรียมเปิดฟีเจอร์ให้เปลี่ยนชื่ออีเมล @gmail.com ได้ โดยข้อมูลไม่หาย อีเมลเก่าจะกลายเป็น Alias รับข้อความได้ปกติ...