ท่ามกลางสมรภูมิการแข่งขันด้าน AI ที่เดือดที่สุดในประวัติศาสตร์มนุษยชาติ OpenAI บริษัทผู้อยู่เบื้องหลัง ChatGPT สร้างแรงสั่นสะเทือนครั้งใหม่ ไม่ใช่ด้วยการเปิดตัวโมเดล AI รุ่นถัดไป แต่ด้วยการเปิดรับสมัครตำแหน่งที่ฟังดูราวกับหลุดออกมาจากหนังไซไฟอย่าง ‘Head of Preparedness’ หรือ ‘หัวหน้าฝ่ายเตรียมความพร้อมรับมือความเสี่ยง’
ตำแหน่งนี้มาพร้อมค่าตอบแทนสูงถึง 555,000 ดอลลาร์สหรัฐต่อปี (ประมาณ 19 ล้านบาท) ยังไม่รวมหุ้นที่อาจมีมูลค่ามหาศาลหาก OpenAI เดินหน้าสู่เป้าหมายระดับแสนล้านดอลลาร์ได้สำเร็จ แต่เงินก้อนโตนี้ไม่ได้มาพร้อมงานสบาย ตรงกันข้าม Sam Altman กลับเตือนผู้สมัครอย่างตรงไปตรงมาว่า
นี่คืองานที่เครียดสุดขีด และคุณต้องพร้อมลงสนามรับมือกับสถานการณ์ที่ยากที่สุดตั้งแต่วันแรก

Sam Altman อธิบายเหตุผลของการเปิดรับสมัครตำแหน่งนี้ผ่านแพลตฟอร์ม X อย่างตรงไปตรงมาว่า OpenAI กำลังยืนอยู่บนจุดหัวเลี้ยวหัวต่อที่สำคัญอย่างยิ่ง เมื่อโมเดล AI “พัฒนาเร็วมาก และเริ่มสร้างความท้าทายที่เป็นรูปธรรมมากขึ้นเรื่อย ๆ”
เขายอมรับว่า แม้โมเดลในปัจจุบันจะสามารถสร้างคุณประโยชน์ได้มหาศาล แต่ในขณะเดียวกันก็เริ่มเผยให้เห็นความเสี่ยงด้านใหม่ ๆ ที่ไม่อาจมองข้าม โดยเฉพาะ 2 สัญญาณเตือนสำคัญที่เริ่มปรากฏชัดในช่วงปี 2025
ด้านแรกคือผลกระทบต่อสุขภาพจิต เมื่อผู้ใช้บางกลุ่มเริ่มหันไปพึ่ง AI แทนนักจิตวิทยาหรือที่ปรึกษาชีวิต และในบางกรณี AI กลับไปกระตุ้นอาการหลอน (Delusions) หรือพฤติกรรมที่เสี่ยงต่อการทำร้ายตัวเอง ซึ่ง OpenAI ระบุว่ากำลังเร่งทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตอย่างใกล้ชิดเพื่อแก้ไขปัญหานี้
อีกด้านหนึ่งคือภัยคุกคามไซเบอร์รูปแบบใหม่ นักวิจัยเริ่มพบว่า AI มีความสามารถด้านความปลอดภัยคอมพิวเตอร์สูงขึ้นจนสามารถค้นหาช่องโหว่ระดับร้ายแรง (Critical Vulnerabilities) ได้ด้วยตัวเอง ความสามารถนี้อาจกลายเป็นดาบสองคม ระหว่างการเสริมพลังให้ฝ่ายป้องกันระบบ กับการเปิดทางให้การโจมตีไซเบอร์มีความรุนแรงและซับซ้อนมากขึ้น
ความกังวลเหล่านี้ซ้อนทับกับวิกฤตศรัทธาที่ OpenAI ต้องเผชิญอย่างต่อเนื่องในปี 2025 ตั้งแต่กรณี ChatGPT เกิดอาการ ‘หลอน’ (Hallucination) ในเอกสารทางกฎหมาย ซึ่งสร้างความเสี่ยงต่อการนำข้อมูลเท็จไปใช้ในคดีจริง การถูกตรวจสอบและฟ้องร้องจาก Federal Trade Commission ในประเด็นการคุ้มครองผู้บริโภคและความโปร่งใสของระบบ AI ไปจนถึงกระแสวิพากษ์วิจารณ์รุนแรงจากปัญหา Deepfake ที่โมเดล AI ถูกนำไปใช้สร้างภาพลามกโดยไม่ได้รับความยินยอม
และคดีความที่สร้างแรงสั่นสะเทือนต่อสังคม เมื่อครอบครัวของผู้เสียชีวิตรายหนึ่งยื่นฟ้องโดยอ้างว่า AI มีส่วนในการชี้นำหรือสนับสนุนพฤติกรรมที่นำไปสู่การเสียชีวิตจริง แม้หลายกรณียังอยู่ในกระบวนการทางกฎหมาย แต่เหตุการณ์เหล่านี้ก็ยิ่งตอกย้ำว่า ความเสี่ยงจาก AI ไม่ได้เป็นเพียงความกังวลเชิงทฤษฎีอีกต่อไป หากแต่เริ่มส่งผลกระทบต่อชีวิตผู้คนในโลกจริงแล้ว
เงินเดือนระดับนี้แลกมากับภาระที่หนักหน่วง เพราะ Head of Preparedness คือผู้ที่ต้องยืนอยู่แนวหน้าสุดของ OpenAI ในการเผชิญคำถามใหญ่ที่สุดของยุคว่า "เราจะเดินหน้าพัฒนาเทคโนโลยีที่ทรงพลังขึ้นเรื่อย ๆ โดยไม่สร้างความเสียหายต่อโลกได้อย่างไร"
โดยตำแหน่งนี้ต้องเป็นผู้นำวางทิศทางและขับเคลื่อนกรอบงาน Preparedness แบบครบวงจร ตั้งแต่การประเมินขีดความสามารถของโมเดลว่า AI ไปไกลแค่ไหนแล้ว ไปจนถึงการสร้างแบบจำลองภัยคุกคาม (Threat Models) เพื่อคาดการณ์การถูกนำไปใช้ในทางที่ผิด พร้อมออกแบบมาตรการป้องกันที่ใช้งานได้จริง ภายใต้บริบทที่ทุกการตัดสินใจมีเดิมพันในระดับโลก
พูดอีกอย่างหนึ่งคือ งานนี้คือการ ‘กู้ระเบิด’ ให้เทคโนโลยีที่บริษัทสร้างขึ้นเอง พร้อมต้องอธิบายต่อสาธารณชน หน่วยงานกำกับดูแล และศาล ว่า OpenAI ยังควบคุมสิ่งที่ตัวเองสร้างได้อยู่
ความกดดันของ Head of Preparedness ไม่ได้มาจากเทคโนโลยีเพียงอย่างเดียว แต่ยังมาจากเป้าหมายทางธุรกิจของ Sam Altman ที่ต้องการผลักดันรายได้ของ OpenAI ไปสู่ 100,000 ล้านดอลลาร์ ภายในเวลาไม่กี่ปี
นั่นหมายความว่า ในขณะที่ฝ่ายความปลอดภัยพยายามเหยียบเบรกเพื่อชะลอความเสี่ยง ฝ่ายธุรกิจกลับต้องเหยียบคันเร่งเปิดตัวโมเดลใหม่ เพื่อรักษาความได้เปรียบเหนือคู่แข่ง ซึ่งอาจถูกกดดันให้ ‘เบรกให้น้อยที่สุด’ เท่าที่จะทำได้
การประกาศรับสมัครตำแหน่งนี้ยังถูกตีความว่าเป็นความพยายาม ‘กู้ศรัทธา’ หลัง OpenAI เผชิญการลาออกของพนักงานระดับหัวกะทิในช่วงปี 2024 โดยเฉพาะจากทีมความปลอดภัย
Jan Leike อดีตผู้นำทีมความปลอดภัย เคยกล่าวอย่างเจ็บแสบว่า “การสร้างเครื่องจักรที่ฉลาดกว่ามนุษย์เป็นสิ่งที่อันตรายโดยธรรมชาติ แต่ในช่วงหลัง วัฒนธรรมและกระบวนการด้านความปลอดภัยกลับถูกลดความสำคัญ เพื่อหลีกทางให้การเข็นผลิตภัณฑ์ใหม่ ๆ ออกสู่ตลาด”
ขณะที่ Daniel Kokotajlo เปิดเผยว่า ทีมวิจัยความปลอดภัยด้าน AGI จากเดิมราว 30 คน เหลืออยู่เพียงครึ่งเดียว หลังหลายคนหมดความเชื่อมั่นในทิศทางของบริษัท
นักวิเคราะห์ตั้งข้อสังเกตว่า ตำแหน่ง Head of Preparedness อาจทำหน้าที่มากกว่าการคุมความปลอดภัยเชิงเทคนิค แต่ยังเป็นการสร้าง ‘บรรทัดฐานทางกฎหมาย’ ให้กับ OpenAI ในอนาคต กล่าวคือ การมีผู้นำที่รับผิดชอบโดยตรงต่อการประเมินความเสี่ยงและการออกแบบมาตรการป้องกันอย่างเป็นระบบ จะช่วยให้บริษัทสามารถชี้แจงต่อศาล หน่วยงานกำกับดูแล และสาธารณชนได้ว่า OpenAI ได้ดำเนินการอย่างรอบคอบและ “พยายามอย่างเต็มที่แล้ว” หากเกิดความเสียหายจากการใช้งาน AI
ในทางปฏิบัติ นั่นหมายความว่า เมื่อเกิดเหตุไม่คาดคิดหรือผลกระทบเชิงลบจาก AI ความรับผิดชอบอาจถูกย้อนรอยกลับมาที่กระบวนการ Preparedness และผู้ที่ดูแลมันโดยตรง มากกว่าการตั้งคำถามต่อตัว OpenAI เอง พูดอีกแบบคือ ตำแหน่งนี้อาจต้องทำหน้าที่ทั้ง 'ผู้คุมความปลอดภัย' และ 'แพะรับบาป' ในเวลาเดียวกัน
Head of Preparedness คนใหม่จะต้องเป็นบุคคลที่พร้อมรับแรงกดดันในระดับโลก สามารถรักษาสมดุลระหว่าง ‘นวัตกรรมที่เปลี่ยนโลก’ กับ ‘ความเสี่ยงระดับมวลมนุษยชาติ’ และยืนรับแรงปะทะเมื่อไม่อาจป้องกันหายนะได้ทั้งหมด บุคคลนั้นจะเป็นใคร คงต้องจับตาดูกันต่อไป
อ้างอิง: Business Insider, Gizmodo
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด