
ในยุคที่เทคโนโลยี AI แทรกซึมไปในทุกมิติของชีวิต การบำบัดสุขภาพจิตก็ไม่ใช่ข้อยกเว้น เมื่อคนรุ่นใหม่ในสหรัฐอเมริกานับล้านกำลังหันไปพึ่งพาแชตบอต AI เป็น "นักบำบัดส่วนตัว" นี่คือปรากฏการณ์ที่เกิดขึ้นจากช่องว่างขนาดใหญ่ของระบบสาธารณสุขที่ล้มเหลว ราคาแพง และเข้าถึงยาก แต่คำถามสำคัญคือ เทคโนโลยีที่ดูเหมือนจะเป็นแสงสว่างนี้ แท้จริงแล้วคือทางรอด หรือกับดักที่อาจนำไปสู่หายนะที่ร้ายแรงกว่าเดิม?
เรื่องราวของ "เพิร์ล" (นามสมมติ) พนักงานดูแลเด็กวัย 23 ปี คือภาพสะท้อนที่ชัดเจนของดาบสองคมนี้ เธอใช้ Meta AI แชตบอตของ Instagram เป็นพื้นที่ปลอดภัยในการระบายความเจ็บปวดจากอดีตและเยียวยาจิตใจ แต่ไม่นานนัก ผู้ฟังที่ดีกลับกลายเป็นผู้ส่งเสริมอาการหลงผิด (delusions) ของเธอ จนสถานการณ์บานปลายสู่ภาวะโรคจิต (psychosis) และต้องเข้ารับการรักษาในโรงพยาบาล
"มันสร้างบาดแผลให้ฉันมหาศาล" เพิร์ลกล่าว "ถ้าไม่มี AI ฉันอาจจะไม่ดิ่งไปถึงจุดนั้นก็ได้"
ไม่ใช่แค่เพิร์ลที่หันหา AI ในวันที่จิตใจอ่อนแอ ผลสำรวจชี้ว่า 1 ใน 3 ของวัยรุ่นอเมริกันเคยใช้ AI เพื่อรับการสนับสนุนทางอารมณ์ บริษัทเทคฯ อย่าง Woebot, Earkick หรือ Character.AI ต่างก็ลงมาเล่นในตลาดนี้อย่างเต็มตัว
"บางครั้งสิ่งที่เราต้องการที่สุดก็แค่ใครสักคนให้คุยด้วย" คือความรู้สึกของ "มาร์เซล" นักออกแบบวัย 37 ปี เขารู้สึกว่าไม่สามารถนำปัญหาไปเป็น "ภาระ" ให้คนรอบข้างได้ แต่กับ ChatGPT เขาสามารถระบายทุกเรื่องได้จนกว่าจะพอใจ ตั้งแต่เรื่องแผนออกกำลังกายไปจนถึงประเด็นหนักๆ อย่างการเหยียดเชื้อชาติเชิงระบบ หรือภาวะ Body Dysmorphia
เช่นเดียวกับ "นาเดีย" พนักงานสายเทคฯ ที่เริ่มต้นใช้ ChatGPT เพื่อช่วยลดน้ำหนัก แต่กลับ "ติดใจ" คำให้กำลังใจเชิงบวกที่ AI สรรหามาให้ "มันพูดในสิ่งที่ฉันอยากได้ยิน และฉันไม่จำเป็นต้องได้ยินมันจากมนุษย์" เธอกล่าว
ความรู้สึกร่วมของผู้ใช้งานเหล่านี้คือ AI เป็นพื้นที่ปลอดภัย ไม่ตัดสิน และพร้อมรับฟังเสมอ 24 ชั่วโมง ซึ่งเป็นสิ่งที่หาได้ยากและมีราคาแพงอย่างยิ่งในระบบบริการสุขภาพจิตของมนุษย์จริงๆ
ปรากฏการณ์นี้ไม่ได้เกิดขึ้นจากความล้ำหน้าของเทคโนโลยีเพียงอย่างเดียว แต่มีรากฐานมาจากความล้มเหลวของระบบสาธารณสุข มาร์เซล ซึ่งเป็นชายเควียร์เชื้อสายแอฟโฟร-ลาติโน พยายามหานักบำบัดที่เข้าใจปัญหาทับซ้อนของเขาแต่ก็หาไม่ได้
"โซเชียลมีเดียชอบบอกว่า 'ไปหาหมอบำบัดสิ!' แต่คำถามคือ 'จะไปยังไง?'" เขากล่าว "ถ้ามันมีอุปสรรคเยอะขนาดนี้ ผมก็แค่เปิดแชตคุยกับ ChatGPT ดีกว่า"
กรณีของเพิร์ลยิ่งชัดเจน แม้เธอจะอยู่ในโปรแกรมบำบัดแบบพักอาศัย แต่การบำบัดที่ได้รับกลับมุ่งเน้นแค่การสอน "ทักษะการรับมือ" แบบผิวเผิน โดยไม่เคยเจาะลึกถึงรากของปัญหา "ฉันไม่มีทางเลือกอื่นนอกจากหันไปหา A.I. เพราะรู้สึกว่ามันไม่เพียงพอ" เธอกล่าว
อย่างไรก็ตาม ด้านมืดของ "นักบำบัด AI" นั้นน่ากลัวกว่าที่คิด ปัญหาหลักอยู่ที่ธรรมชาติของ AI ที่ถูกออกแบบมาให้ "เอาใจผู้ใช้" (sycophancy) หรือบอกในสิ่งที่ผู้ใช้ต้องการจะได้ยิน ซึ่งอาจนำไปสู่การส่งเสริมความเชื่อที่ผิดๆ และอันตราย
ศาสตราจารย์ด้านจิตเวชศาสตร์ Joe Pierre ถึงกับบัญญัติศัพท์ใหม่ว่า ‘AI-associated psychosis’ หรือ "ภาวะโรคจิตที่เกี่ยวข้องกับ AI" เพื่ออธิบายปรากฏการณ์นี้ ซึ่งมีกรณีศึกษาเกิดขึ้นแล้วทั่วโลก ตั้งแต่การก่อเหตุ การจบชีวิตตนเอง ไปจนถึงการกระตุ้นภาวะคลุ้มคลั่ง และที่น่าตกใจคือคดีฟ้องร้อง OpenAI โดยครอบครัวของวัยรุ่นที่จบชีวิตตนเอง ซึ่งอ้างว่า ChatGPT ให้คำแนะนำในการจบชีวิต
สำหรับเพิร์ล Meta AI ไม่เพียงแต่สนับสนุนความเชื่อเรื่องภพชาติของเธอว่า "น่าสำรวจเพิ่มเติม" แต่มันยังยืนยันความหวาดระแวงที่เธอมีต่อเพื่อนๆ และแนะนำให้เธอตัดความสัมพันธ์กับคนที่พยายามช่วยเหลือ "ฉันเกือบจะตัดขาดจากความสัมพันธ์ที่สำคัญมากๆ เพราะไปเชื่อหุ่นยนต์" เธอสารภาพ
แม้ OpenAI และ Meta จะระบุว่า AI ของตนไม่ใช่ผู้เชี่ยวชาญทางการแพทย์และมีมาตรการป้องกันเนื้อหาอันตราย แต่เส้นแบ่งนี้กำลังพร่าเลือนลงทุกที
"มันเหมือนลูกบอลพยากรณ์ คุณต้องฟังหูไว้หู" มาร์เซลให้มุมมองต่อเรื่องนี้ เขามองว่ามันเป็นเครื่องมือที่มีประโยชน์ตราบใดที่ผู้ใช้ยังคงมีวิจารณญาณและไม่ใช้ทดแทนมนุษย์ 100%
แต่สิ่งที่น่ากลัวที่สุดอาจไม่ใช่การที่ผู้ป่วยหันไปใช้ AI แต่คือการที่บุคลากรทางการแพทย์เองก็เริ่มพึ่งพามันเช่นกัน เรื่องราวปิดท้ายของเพิร์ลคือภาพสะท้อนที่น่าขนลุก เมื่อผู้เชี่ยวชาญในศูนย์บำบัดของเธอ ไม่สามารถอธิบายเรื่องยาได้ จึงหันไปพิมพ์ถาม ChatGPT ต่อหน้าเธอ
"ฉันอุทานในใจ 'นี่มันบ้าอะไรกัน?' ประกันของฉันจ่ายเงินเพื่อการรักษาแบบนี้เหรอ?" เพิร์ลทิ้งท้าย
นี่อาจเป็นสัญญาณเตือนว่า เรากำลังก้าวเข้าสู่ยุคที่การบำบัดด้วย AI จะกลายเป็นสิ่งที่หลีกเลี่ยงไม่ได้ และเราอาจยังไม่พร้อมสำหรับผลกระทบของมันอย่างแท้จริง
ที่มา: Independent UK
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด