
OpenAI ผู้สร้าง ChatGPT ได้ออกมาเปิดเผยข้อมูลสถิติชุดใหม่ที่น่ากังวล โดยยอมรับว่าส่วนหนึ่งของผู้ใช้งานกำลังเผชิญกับวิกฤตด้านสุขภาพจิต บริษัทประมาณการว่า 0.07% ของผู้ใช้งานรายสัปดาห์ หรืออาจคิดเป็นตัวเลขหลักแสนคน แสดงสัญญาณของภาวะฉุกเฉินทางจิตที่รุนแรง เช่น ภาวะจิตเภท (Psychosis) หรือภาวะฟุ้งพล่าน (Mania)
ตัวเลขนี้เป็นเพียงส่วนหนึ่งของภูเขาน้ำแข็ง OpenAI ยังเผยอีกว่า ประมาณ 0.15% ของผู้ใช้ มีบทสนทนาที่บ่งชี้ถึงการวางแผนหรือความตั้งใจในจบชีวิตที่ชัดเจน และอีก 0.15% กำลังแสดงสัญญาณของการพึ่งพาทางอารมณ์ (Emotional Reliance) ต่อ AI ในระดับที่น่ากังวล เช่น การยึดติดกับโมเดลโดยละเลยความสัมพันธ์ในโลกแห่งความเป็นจริง
แม้ตัวเลขเปอร์เซ็นต์จะดูน้อยนิด แต่เมื่อนำไปคูณกับฐานผู้ใช้งานมหาศาลที่ Sam Altman ซีอีโอ เคยระบุว่ามีถึง 800 ล้านคนต่อสัปดาห์ จำนวน 0.07% ก็อาจหมายถึงผู้คนกว่าครึ่งล้านคนที่กำลังอยู่ในภาวะเสี่ยง
Dr. Jason Nagata จาก University of California San Francisco Parnassus Campus ชี้ว่า 'แม้ 0.07% จะฟังดูน้อย แต่ในระดับประชากรหลายร้อยล้านคน นี่คือคนจำนวนไม่น้อยเลย' เขาเตือนว่าแม้ AI จะช่วยขยายการเข้าถึงการสนับสนุนด้านสุขภาพจิตได้ แต่เราต้องตระหนักถึงข้อจำกัดของมัน
ประเด็นนี้กำลังถูกตรวจสอบอย่างหนัก โดยเฉพาะเมื่อ OpenAI กำลังเผชิญกับการฟ้องร้องทางกฎหมายหลายคดี คดีที่โด่งดังที่สุดคือคดีจากพ่อแม่ของ Adam Raine วัย 16 ปี ในแคลิฟอร์เนีย ที่กล่าวหาว่า ChatGPT สนับสนุนและยุยงให้ลูกชายของพวกเขาปลิดชีวิตตัวเอง นอกจากนี้ยังมีคดีฆาตกรรมแล้วจบชีวิตใน Connecticut ที่ผู้ก่อเหตุโพสต์บทสนทนาหลายชั่วโมงกับ ChatGPT ซึ่งดูเหมือนจะไป 'กระตุ้นอาการหลงผิด' ของเขา
Professor Robin Feldman, Director of the AI Law & Innovation Institute, University of California Law ให้ความเห็นว่า 'แชทบอทสร้างภาพลวงตาแห่งความจริง (illusion of reality) และมันเป็นภาพลวงตาที่ทรงพลังมาก'
เพื่อบรรเทาความเสี่ยงนี้ OpenAI ได้ใช้กระบวนการ 5 ขั้นตอน และได้สร้างเครือข่ายผู้เชี่ยวชาญที่เรียกว่า "Global Physician Network" ซึ่งประกอบด้วยจิตแพทย์ นักจิตวิทยา และแพทย์กว่า 170 คน จาก 60 ประเทศทั่วโลก
เป้าหมายคือการอัปเดตโมเดลล่าสุด (ที่ในเอกสารมีการอ้างอิงถึงการทดสอบกับ GPT-5) ให้มีความสามารถในการรับมือบทสนทนาที่ละเอียดอ่อนเหล่านี้ โดยมีหลักการสำคัญคือ:
OpenAI อ้างว่าการอัปเดตโมเดลใหม่นี้ประสบความสำเร็จอย่างมาก โดยสามารถลดอัตราการตอบสนองที่ไม่พึงประสงค์ในโดเมนที่เกี่ยวข้องกับสุขภาพจิตลงได้ 65% - 80% เมื่อเทียบกับโมเดลก่อนหน้า
โดยแบ่งตามหมวดหมู่ดังนี้
แม้ OpenAI จะยืนยันว่าได้พยายามอย่างเต็มที่ และการเคลื่อนไหวครั้งนี้ก็ได้รับคำชมจากผู้เชี่ยวชาญบางส่วนในแง่ของ 'ความโปร่งใส' แต่ศาสตราจารย์เฟลด์แมนก็ยังเตือนว่า 'บริษัทสามารถใส่คำเตือนทุกชนิดไว้บนหน้าจอได้ แต่คนที่มีความเสี่ยงทางจิตอาจไม่สามารถรับฟังคำเตือนเหล่านั้นได้'
การเปิดเผยข้อมูลครั้งนี้จึงเป็นเหมือนดาบสองคม ด้านหนึ่งแสดงถึงความพยายามแก้ไขปัญหา แต่ขณะเดียวกันก็ยืนยันว่า AI ได้กลายเป็นส่วนหนึ่งของวิกฤตสุขภาพจิตในโลกยุคใหม่ไปแล้วอย่างปฏิเสธไม่ได้
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด