OpenAI เปิดรับ Head of Preparedness คุมความเสี่ยง AI ระดับโลก ค่าตัวปีละ 19 ล้านบาท Sam Altman เตือน “งานนี้กดดันมหาศาล”

ท่ามกลางสมรภูมิการแข่งขันด้าน AI ที่เดือดที่สุดในประวัติศาสตร์มนุษยชาติ OpenAI บริษัทผู้อยู่เบื้องหลัง ChatGPT สร้างแรงสั่นสะเทือนครั้งใหม่ ไม่ใช่ด้วยการเปิดตัวโมเดล AI รุ่นถัดไป แต่ด้วยการเปิดรับสมัครตำแหน่งที่ฟังดูราวกับหลุดออกมาจากหนังไซไฟอย่าง ‘Head of Preparedness’ หรือ ‘หัวหน้าฝ่ายเตรียมความพร้อมรับมือความเสี่ยง’

ตำแหน่งนี้มาพร้อมค่าตอบแทนสูงถึง 555,000 ดอลลาร์สหรัฐต่อปี (ประมาณ 19 ล้านบาท) ยังไม่รวมหุ้นที่อาจมีมูลค่ามหาศาลหาก OpenAI เดินหน้าสู่เป้าหมายระดับแสนล้านดอลลาร์ได้สำเร็จ แต่เงินก้อนโตนี้ไม่ได้มาพร้อมงานสบาย ตรงกันข้าม Sam Altman กลับเตือนผู้สมัครอย่างตรงไปตรงมาว่า

นี่คืองานที่เครียดสุดขีด และคุณต้องพร้อมลงสนามรับมือกับสถานการณ์ที่ยากที่สุดตั้งแต่วันแรก

“โมเดลเก่งขึ้นเร็วมาก… และเริ่มอันตรายขึ้นจริง ๆ”

Sam Altman อธิบายเหตุผลของการเปิดรับสมัครตำแหน่งนี้ผ่านแพลตฟอร์ม X อย่างตรงไปตรงมาว่า OpenAI กำลังยืนอยู่บนจุดหัวเลี้ยวหัวต่อที่สำคัญอย่างยิ่ง เมื่อโมเดล AI “พัฒนาเร็วมาก และเริ่มสร้างความท้าทายที่เป็นรูปธรรมมากขึ้นเรื่อย ๆ”

เขายอมรับว่า แม้โมเดลในปัจจุบันจะสามารถสร้างคุณประโยชน์ได้มหาศาล แต่ในขณะเดียวกันก็เริ่มเผยให้เห็นความเสี่ยงด้านใหม่ ๆ ที่ไม่อาจมองข้าม โดยเฉพาะ 2 สัญญาณเตือนสำคัญที่เริ่มปรากฏชัดในช่วงปี 2025

ด้านแรกคือผลกระทบต่อสุขภาพจิต เมื่อผู้ใช้บางกลุ่มเริ่มหันไปพึ่ง AI แทนนักจิตวิทยาหรือที่ปรึกษาชีวิต และในบางกรณี AI กลับไปกระตุ้นอาการหลอน (Delusions) หรือพฤติกรรมที่เสี่ยงต่อการทำร้ายตัวเอง ซึ่ง OpenAI ระบุว่ากำลังเร่งทำงานร่วมกับผู้เชี่ยวชาญด้านสุขภาพจิตอย่างใกล้ชิดเพื่อแก้ไขปัญหานี้

อีกด้านหนึ่งคือภัยคุกคามไซเบอร์รูปแบบใหม่ นักวิจัยเริ่มพบว่า AI มีความสามารถด้านความปลอดภัยคอมพิวเตอร์สูงขึ้นจนสามารถค้นหาช่องโหว่ระดับร้ายแรง (Critical Vulnerabilities) ได้ด้วยตัวเอง ความสามารถนี้อาจกลายเป็นดาบสองคม ระหว่างการเสริมพลังให้ฝ่ายป้องกันระบบ กับการเปิดทางให้การโจมตีไซเบอร์มีความรุนแรงและซับซ้อนมากขึ้น

ความกังวลเหล่านี้ซ้อนทับกับวิกฤตศรัทธาที่ OpenAI ต้องเผชิญอย่างต่อเนื่องในปี 2025 ตั้งแต่กรณี ChatGPT เกิดอาการ ‘หลอน’ (Hallucination) ในเอกสารทางกฎหมาย ซึ่งสร้างความเสี่ยงต่อการนำข้อมูลเท็จไปใช้ในคดีจริง การถูกตรวจสอบและฟ้องร้องจาก Federal Trade Commission ในประเด็นการคุ้มครองผู้บริโภคและความโปร่งใสของระบบ AI ไปจนถึงกระแสวิพากษ์วิจารณ์รุนแรงจากปัญหา Deepfake ที่โมเดล AI ถูกนำไปใช้สร้างภาพลามกโดยไม่ได้รับความยินยอม 

และคดีความที่สร้างแรงสั่นสะเทือนต่อสังคม เมื่อครอบครัวของผู้เสียชีวิตรายหนึ่งยื่นฟ้องโดยอ้างว่า AI มีส่วนในการชี้นำหรือสนับสนุนพฤติกรรมที่นำไปสู่การเสียชีวิตจริง แม้หลายกรณียังอยู่ในกระบวนการทางกฎหมาย แต่เหตุการณ์เหล่านี้ก็ยิ่งตอกย้ำว่า ความเสี่ยงจาก AI ไม่ได้เป็นเพียงความกังวลเชิงทฤษฎีอีกต่อไป หากแต่เริ่มส่งผลกระทบต่อชีวิตผู้คนในโลกจริงแล้ว

ภารกิจหยุดยั้ง ‘หายนะ’ จากน้ำมือ AI

เงินเดือนระดับนี้แลกมากับภาระที่หนักหน่วง เพราะ Head of Preparedness คือผู้ที่ต้องยืนอยู่แนวหน้าสุดของ OpenAI ในการเผชิญคำถามใหญ่ที่สุดของยุคว่า "เราจะเดินหน้าพัฒนาเทคโนโลยีที่ทรงพลังขึ้นเรื่อย ๆ โดยไม่สร้างความเสียหายต่อโลกได้อย่างไร"

โดยตำแหน่งนี้ต้องเป็นผู้นำวางทิศทางและขับเคลื่อนกรอบงาน Preparedness แบบครบวงจร ตั้งแต่การประเมินขีดความสามารถของโมเดลว่า AI ไปไกลแค่ไหนแล้ว ไปจนถึงการสร้างแบบจำลองภัยคุกคาม (Threat Models) เพื่อคาดการณ์การถูกนำไปใช้ในทางที่ผิด พร้อมออกแบบมาตรการป้องกันที่ใช้งานได้จริง ภายใต้บริบทที่ทุกการตัดสินใจมีเดิมพันในระดับโลก

พูดอีกอย่างหนึ่งคือ งานนี้คือการ ‘กู้ระเบิด’ ให้เทคโนโลยีที่บริษัทสร้างขึ้นเอง พร้อมต้องอธิบายต่อสาธารณชน หน่วยงานกำกับดูแล และศาล ว่า OpenAI ยังควบคุมสิ่งที่ตัวเองสร้างได้อยู่

ความกดดันของ Head of Preparedness ไม่ได้มาจากเทคโนโลยีเพียงอย่างเดียว แต่ยังมาจากเป้าหมายทางธุรกิจของ Sam Altman ที่ต้องการผลักดันรายได้ของ OpenAI ไปสู่ 100,000 ล้านดอลลาร์ ภายในเวลาไม่กี่ปี

นั่นหมายความว่า ในขณะที่ฝ่ายความปลอดภัยพยายามเหยียบเบรกเพื่อชะลอความเสี่ยง ฝ่ายธุรกิจกลับต้องเหยียบคันเร่งเปิดตัวโมเดลใหม่ เพื่อรักษาความได้เปรียบเหนือคู่แข่ง ซึ่งอาจถูกกดดันให้ ‘เบรกให้น้อยที่สุด’ เท่าที่จะทำได้

การ ‘กู้ศรัทธา’ ของ OpenAI

การประกาศรับสมัครตำแหน่งนี้ยังถูกตีความว่าเป็นความพยายาม ‘กู้ศรัทธา’ หลัง OpenAI เผชิญการลาออกของพนักงานระดับหัวกะทิในช่วงปี 2024 โดยเฉพาะจากทีมความปลอดภัย

Jan Leike อดีตผู้นำทีมความปลอดภัย เคยกล่าวอย่างเจ็บแสบว่า “การสร้างเครื่องจักรที่ฉลาดกว่ามนุษย์เป็นสิ่งที่อันตรายโดยธรรมชาติ แต่ในช่วงหลัง วัฒนธรรมและกระบวนการด้านความปลอดภัยกลับถูกลดความสำคัญ เพื่อหลีกทางให้การเข็นผลิตภัณฑ์ใหม่ ๆ ออกสู่ตลาด”

ขณะที่ Daniel Kokotajlo เปิดเผยว่า ทีมวิจัยความปลอดภัยด้าน AGI จากเดิมราว 30 คน เหลืออยู่เพียงครึ่งเดียว หลังหลายคนหมดความเชื่อมั่นในทิศทางของบริษัท

คุมความเสี่ยงจริง หรือแค่หา ‘แพะรับบาป’

นักวิเคราะห์ตั้งข้อสังเกตว่า ตำแหน่ง Head of Preparedness อาจทำหน้าที่มากกว่าการคุมความปลอดภัยเชิงเทคนิค แต่ยังเป็นการสร้าง ‘บรรทัดฐานทางกฎหมาย’ ให้กับ OpenAI ในอนาคต กล่าวคือ การมีผู้นำที่รับผิดชอบโดยตรงต่อการประเมินความเสี่ยงและการออกแบบมาตรการป้องกันอย่างเป็นระบบ จะช่วยให้บริษัทสามารถชี้แจงต่อศาล หน่วยงานกำกับดูแล และสาธารณชนได้ว่า OpenAI ได้ดำเนินการอย่างรอบคอบและ “พยายามอย่างเต็มที่แล้ว” หากเกิดความเสียหายจากการใช้งาน AI

ในทางปฏิบัติ นั่นหมายความว่า เมื่อเกิดเหตุไม่คาดคิดหรือผลกระทบเชิงลบจาก AI ความรับผิดชอบอาจถูกย้อนรอยกลับมาที่กระบวนการ Preparedness และผู้ที่ดูแลมันโดยตรง มากกว่าการตั้งคำถามต่อตัว OpenAI เอง พูดอีกแบบคือ ตำแหน่งนี้อาจต้องทำหน้าที่ทั้ง 'ผู้คุมความปลอดภัย' และ 'แพะรับบาป' ในเวลาเดียวกัน 

Head of Preparedness คนใหม่จะต้องเป็นบุคคลที่พร้อมรับแรงกดดันในระดับโลก สามารถรักษาสมดุลระหว่าง ‘นวัตกรรมที่เปลี่ยนโลก’ กับ ‘ความเสี่ยงระดับมวลมนุษยชาติ’ และยืนรับแรงปะทะเมื่อไม่อาจป้องกันหายนะได้ทั้งหมด บุคคลนั้นจะเป็นใคร คงต้องจับตาดูกันต่อไป

อ้างอิง: Business Insider, Gizmodo


ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Blue Origin เปิดตัว TeraWave อินเทอร์เน็ตจากอวกาศ รับ–ส่งข้อมูลเร็วสูงสุด 6 Tbps เชื่อมพื้นที่ที่สายไฟเบอร์เข้าถึงยาก

Blue Origin เปิดตัว TeraWave เครือข่ายอินเทอร์เน็ตดาวเทียมจากอวกาศเพื่อองค์กร ศูนย์ข้อมูล และหน่วยงานรัฐ รองรับการรับ–ส่งข้อมูลแบบสมมาตร ด้วยความจุรวมสูงสุด 6 Tbps เสริมโครงข่ายภาค...

Responsive image

ปิดฉาก Davos 2026 เอกนิติ นำทีมไทยแลนด์ คุย NVIDIA, AWS ฯลฯ เดินหน้าแผนลงทุน 500,000 ล้านบาท

เจาะลึกภารกิจ Team Thailand ใน Davos 2026 ปิดดีล 9 ยักษ์เทคฯ โลก NVIDIA, AWS, TikTok ลงทุนไทย 5 แสนล้านบาท ปักหมุดไทยเป็นศูนย์กลางเศรษฐกิจใหม่และฐานการลงทุนเทคโนโลยีขั้นสูงของภูมิภ...

Responsive image

เกาหลีใต้ประกาศเริ่มใช้กฎหมาย AI Basic Act AI เสี่ยงสูงต้องมีคนคุม ใช้ Generative AI ต้องแจ้ง

เกาหลีใต้เริ่มบังคับใช้กฎหมายควบคุมปัญญาประดิษฐ์ AI Basic Act ซึ่งรัฐบาลระบุว่าเป็นกฎหมาย AI แบบครอบคลุมฉบับแรกของโลก กำหนดให้ AI เสี่ยงสูงต้องมีมนุษย์กำกับ และบังคับแจ้ง–ติดฉลากกา...