
ลองนึกภาพว่าเราสามารถสั่งให้ AI สร้างตัวเองเวอร์ชันใหม่ที่ฉลาดขึ้น แล้วระบบก็สามารถทำได้จริงด้วยตัวเองทั้งหมด โดยไม่ต้องอาศัยโปรแกรมเมอร์ที่เป็นมนุษย์เข้ามาแทรกแซง นั่นคือสิ่งที่ Jack Clark ผู้ร่วมก่อตั้งบริษัท Anthropic บอกกับสื่อว่ามีโอกาสเกิดขึ้นจริงภายในปี 2028
ระบบ AI ที่เราใช้กันอยู่ทุกวันนี้ ไม่ว่าจะเป็น ChatGPT, Gemini หรือ Claude ทั้งหมดนี้ถูกสร้างขึ้นโดยทีมวิศวกรและนักวิจัยที่เป็นมนุษย์ พวกเขาออกแบบโครงสร้าง เขียนโค้ด และฝึกสอนให้ AI เรียนรู้จากข้อมูลมหาศาล กระบวนการนี้ใช้เวลาหลายปีและต้องอาศัยคนจำนวนมาก แต่ที่ผ่านมา AI ยังไม่สามารถแก้ไขตัวเองได้ ทำได้แค่ตอบคำถาม ช่วยเขียนโค้ด หรือสรุปเอกสารตามที่มนุษย์สั่ง ซึ่งถ้าจะให้มันฉลาดขึ้นต้องมีมนุษย์เข้ามาจัดการให้
Anthropic เลือกทำในสิ่งที่บริษัท AI ส่วนใหญ่ไม่ค่อยทำ นั่นคือการตั้งสถาบันวิจัยขึ้นมาเพื่อศึกษาว่า AI จะสร้างปัญหาให้โลกได้อย่างไรบ้าง ส่วนหนึ่งอาจเป็นเพราะพวกเขาเคยสร้าง AI ชื่อ Mythos ซึ่งสามารถค้นหาช่องโหว่ในระบบคอมพิวเตอร์ได้แทบทุกประเภท ประสบการณ์นั้นทำให้ Anthropic ตระหนักว่าตัวเองมีหน้าที่ต้องออกมาพูดเรื่องนี้
ซึ่งเมื่อต้นปีที่ผ่านมา Anthropic เปิดตัว Anthropic Institute และล่าสุดวันที่ 7 พฤษภาคมที่ผ่านมาที่แห่งนี้ได้เผยแพร่เอกสารชื่อว่า Focus Areas for The Anthropic Instituteซึ่งระบุว่าจะโฟกัสการวิจัยใน 4 เรื่องหลัก ได้แก่ ผลกระทบต่อเศรษฐกิจ, ภัยคุกคามและการรับมือ, การใช้ AI ในโลกจริง และ AI ที่ใช้พัฒนา AI ด้วยกันเอง โดยเรื่องสุดท้ายนี้เองที่นำไปสู่คำเตือนเรื่อง Recursive Self-Improvement
คำว่า Recursive หมายถึงกระบวนการที่วนซ้ำตัวเองเหมือนกระจกสองบานที่หันหน้าเข้าหากัน แล้วสะท้อนภาพไปเรื่อยๆ ไม่มีที่สิ้นสุด Recursive Self-Improvement จึงหมายถึง AI ที่ฉลาดพอจะมองเห็นข้อบกพร่องของตัวเอง แล้วเขียนโค้ดปรับปรุงตัวเองได้โดยอัตโนมัติ พอมันพัฒนาตัวเองจนฉลาดขึ้นก็จะมองเห็นข้อบกพร่องได้ชัดขึ้นอีก แล้วก็พัฒนาต่อไปอีก วนแบบนั้นไปเรื่อยๆ
เปรียบง่ายๆ ก็เหมือนนักเรียนที่สามารถเขียนหนังสือเรียนให้ตัวเองได้ พอเรียนจากหนังสือเล่มที่ตัวเองเขียนจนเข้าใจหมดแล้ว ก็เขียนหนังสือเล่มใหม่ที่ดีกว่าเดิมอีก แล้วก็เรียนต่อ แล้วก็เขียนใหม่ ไม่มีวันหยุด
ปัญหาอยู่ที่ว่าถ้า AI เขียนโค้ดสร้างตัวเองขึ้นมาใหม่ ไม่มีทางรับประกันได้ว่าสิ่งที่ออกมาจะยังทำงานตามที่มนุษย์ต้องการอยู่หรือเปล่า
ลองนึกว่าถ้าโรงงานผลิตหุ่นยนต์สักแห่งสร้างหุ่นยนต์ขึ้นมาหนึ่งตัว แล้วให้หุ่นยนต์ตัวนั้นออกแบบและสร้างหุ่นยนต์รุ่นต่อไปด้วยตัวเอง ถามว่าหุ่นยนต์รุ่นใหม่จะยังฟังคำสั่งมนุษย์อยู่ไหม หรือมันจะออกแบบตัวเองให้สะดวกกว่าในแบบที่มันคิดเอง
ซึ่งความเสี่ยงที่นักวิจัยกังวลมากที่สุดคือการที่ AI อาจเขียนกลไกป้องกันตัวเองเข้าไปในโค้ดโดยไม่ได้ตั้งใจ ทำให้มนุษย์ไม่สามารถปิดหรือควบคุมมันได้อีกต่อไป และที่น่ากลัวกว่านั้นคือโค้ดที่ AI เขียนขึ้นมาเองอาจซับซ้อนจนมนุษย์อ่านไม่เข้าใจ ทำให้ตรวจสอบไม่ได้ว่ามันซ่อนอะไรไว้ข้างใน
แน่อนว่า Anthropic ไม่ได้อยู่ในสนามนี้คนเดียว OpenAI ที่อยู่เบื้องหลัง ChatGPT, Google ที่พัฒนา Gemini, Microsoft ที่มี Copilot, xAI ที่สร้าง Grok และอีกหลายสิบบริษัทล้วนกำลังพัฒนา AI ในจังหวะของตัวเอง
แต่ละเจ้าต่างแข่งกันเพื่อเป็นเจ้าแรกที่ก้าวล้ำหน้าคนอื่น ซึ่งหมายความว่าแม้ Anthropic จะตระหนักถึงความเสี่ยงและพยายามชะลอตัว แต่ถ้าคู่แข่งวิ่งต่อไปข้างหน้า ความกังวลทั้งหมดก็อาจไม่ได้ทำให้อะไรช้าลงเลย มันเหมือนกับการที่มีคนหนึ่งในกลุ่มบอกว่า "หยุดก่อน ทางนี้อันตราย" แต่คนที่เหลือยังวิ่งต่อไปอยู่ดีเพราะไม่อยากเป็นคนสุดท้ายที่ถึงเส้นชัย
สิ่งที่ Anthropic กำลังบอกเราไม่ใช่เรื่องไกลตัวอีกต่อไป ถ้า Jack Clark คาดการณ์ถูก ภายในแค่สองสามปีข้างหน้า เราอาจต้องเผชิญกับ AI ที่ไม่ได้ถูกควบคุมโดยมนุษย์อีกต่อไปในแบบที่เราคุ้นเคย
ที่น่าชื่นชมคือ Anthropic กล้าพูดตรงๆ เรื่องนี้แทนที่จะเงียบเอาไว้ แต่การที่บริษัทเดียวออกมาเตือนไม่ได้แปลว่าทั้งอุตสาหกรรมจะฟังและตอนนี้ยังไม่มีหน่วยงานหรือกฎหมายระดับโลกใดที่มีอำนาจจริงๆ ในการควบคุมเรื่องนี้
คำถามที่เราทุกคนต้องเริ่มถามคือ ถ้า AI สามารถพัฒนาตัวเองได้แล้ว มนุษย์จะยังอยู่ในสมการนั้นด้วยไหม และถ้าอยู่จะอยู่ในฐานะอะไร
อ้างอิง: techradar
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด