Sam Altman ซีอีโอของ OpenAI ออกมาเปิดเผยถึงประสบการณ์ทดสอบ GPT‑5 ในพอดแคสต์ This Past Weekend with Theo Von โดยตัวเขาเองระบุว่า GPT-5 นั้นเร็วมากๆ และมีช่วงเวลาที่เขารู้สึกกังวลถึงผลกระทบจองมัน ถึงขั้นเปรียบเทียบว่า GPT-5 ทำให้เขานึกถึง Manhattan Project โครงการพัฒนาอาวุธนิวเคลียร์ของสหรัฐฯ ในยุคสงครามโลก

ในทางเทคนิค GPT ก็คือระบบประมวลผลภาษาธรรมชาติที่ฉลาดขึ้นเรื่อย ๆ มันไม่ใช่ AI ที่มีความรู้สึกนึกคิด มันยังไม่ถึงขั้น AGI (Artificial General Intelligence) ที่คิดเองได้ทุกเรื่องแบบมนุษย์
แต่การเปรียบ GPT-5 กับ Manhattan Project ไม่ใช่คำพูดที่พูดเล่น เพราะมันหมายถึงการสร้างเทคโนโลยีที่อาจเปลี่ยนสมดุลของโลก และไม่สามารถย้อนกลับได้ คำพูดนี้จึงกลายเป็นสัญญาณชัดว่า Altman มอง GPT-5 ว่า มีอำนาจบางอย่าง ที่อาจอยู่นอกเหนือการควบคุม แม้แต่คนสร้างเองก็ยังไม่มั่นใจว่าจะคุมมันได้
และนั่นคือประเด็นที่อันตรายกว่าแค่ AI ฉลาดขึ้น เพราะมันชี้ว่า OpenAI อาจกำลังสร้างบางสิ่งที่ตัวเอง ยังไม่เข้าใจลึกซึ้งพอ ซึ่งอาจถูกตีความได้ทั้งสองทางเป็นการเตือนที่จริงใจ หรือเป็นการพูดเวอร์เพื่อสร้างกระแส
Altman ไม่ได้เปิดเผยรายละเอียดทางเทคนิคว่ามีอะไรที่น่ากลัว ใน GPT‑5 ที่น่าสนใจคือการที่ผู้สร้างเองยังยอมรับว่า “อาจไม่เข้าใจสิ่งที่สร้างขึ้นมาทั้งหมด” กลายเป็นคำถามใหญ่ในสังคมว่าบริษัทแบบ OpenAI ควรเป็นคนตัดสินใจหรือเปล่าว่า AI ขั้นสูงจะถูกใช้ไปทางไหน ?
แม้ GPT-5 ยังไม่เปิดตัว แต่ก็มีสัญญาณว่าจะเหนือกว่า GPT-4 อย่างชัดเจน คำว่า digital mind ที่ Altman ใช้ อาจสะท้อนว่าแม้แต่คนสร้างก็เริ่มมอง AI ว่าไม่ใช่แค่เครื่องมือธรรมดาอีกต่อไป
Altman เองก็เคยเตือนมาก่อนว่า AI อาจไปผิดทางได้ และแม้ว่า GPT-5 จะมาพร้อมเครื่องมือดีขึ้น ใช้ง่ายขึ้น และมีแบรนด์ที่ดูสดใหม่ขึ้น แต่คำถามใหญ่คือ ใครควรมีอำนาจควบคุมมัน เพราะถ้า AI รุ่นต่อไปฉลาดขึ้นจริง ก็เท่ากับเรากำลังโยนอำนาจตัดสินใจให้กับมันมากขึ้น ซึ่งจากสิ่งที่ Altman พูดเอง ยังทำให้ไม่แน่ใจเลยว่าบริษัทของเขาพร้อมรับผิดชอบขนาดนั้นหรือเปล่า
อ้างอิง: techradar
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด