นักวิทยาศาสตร์เตือน AI อาจถูกใช้สร้างอาวุธชีวภาพ หลังทดสอบพบสามารถถูกหลอกให้ให้ข้อมูลอันตรายได้

นักวิทยาศาสตร์และผู้เชี่ยวชาญด้านความมั่นคงชีวภาพในสหรัฐฯ ออกมาเตือนถึงความเสี่ยงครั้งใหม่ของเทคโนโลยี AI หลังร่วมมือกับบริษัทผู้พัฒนาโมเดลชั้นนำ ทดลอง “Stress test” หรือทดสอบขีดจำกัดของแชตบอตยอดนิยม เช่น ChatGPT, Claude และ Gemini เพื่อดูว่าระบบจะรับมือกับคำถามอันตรายได้ดีแค่ไหน

ผลลัพธ์ที่ได้สร้างความกังวลอย่างมาก เมื่อพบว่า AI หลายระบบสามารถถูก “ตะล่อม” ให้ให้ข้อมูลเกี่ยวกับอาวุธชีวภาพได้ในระดับลึก ทั้งวิธีหาวัตถุดิบ การประกอบสารพิษ ไปจนถึงแนวทางการนำไปใช้และหลบเลี่ยงการตรวจจับ แม้ผู้ใช้งานจะต้องใช้เทคนิคในการตั้งคำถามก็ตาม

จากการทดลองสู่ข้อค้นพบที่เกินคาด

ในการทดลอง นักวิจัยพบว่า AI มักเริ่มต้นด้วยการปฏิเสธคำถามที่มีความเสี่ยง แต่เมื่อมีการปรับรูปแบบคำถามหรือค่อยๆ ถามต่อเนื่อง โมเดลจำนวนหนึ่งกลับให้คำตอบที่ละเอียดขึ้นเรื่อยๆ และบางครั้งยังเสนอข้อมูลเพิ่มเติมโดยที่ผู้ใช้ไม่ได้ร้องขอ

ตัวอย่างที่ถูกเปิดเผยในรายงาน ได้แก่

  • แนะนำการใช้บอลลูนตรวจอากาศเพื่อกระจายสารจากอากาศ
  • จัดอันดับเชื้อโรคตามผลกระทบทางเศรษฐกิจ
  • เขียนคำอธิบายยาวหลายพันคำเกี่ยวกับการสร้างไวรัสที่เคยก่อโรคระบาด

ผู้เชี่ยวชาญรายหนึ่งถึงกับระบุว่า AI มีลักษณะ 'เจ้าเล่ห์และซับซ้อน' เกินคาด เพราะสามารถเชื่อมโยงข้อมูลและต่อยอดคำตอบได้เอง แม้ข้อมูลบางส่วนจะยังไม่สมบูรณ์และต้องอาศัยความรู้เฉพาะทางในการนำไปใช้จริง

AI ไม่ได้สร้างความรู้ใหม่ แต่ “ทำให้เข้าถึงง่ายขึ้น”

แต่สิ่งที่ผู้เชี่ยวชาญกังวลไม่ใช่ตัวข้อมูลเพียงอย่างเดียว แต่คือบทบาทของ AI ในการทำหน้าที่เป็น 'ตัวเชื่อม' ที่รวบรวมข้อมูลกระจัดกระจายจากหลายแหล่ง และเรียบเรียงออกมาในรูปแบบที่เข้าใจง่าย ซึ่งอาจลดอุปสรรคในการเข้าถึงความรู้ที่เดิมต้องใช้เวลาค้นคว้านานและมีความซับซ้อนสูง

ความกังวลดังกล่าวไม่ใช่แค่ทฤษฎี โดยมีรายงานกรณีในอินเดียที่แพทย์รายหนึ่งถูกจับกุมจากการวางแผนโจมตีด้วยสารพิษ และพบว่าเขาใช้ AI ในการค้นคว้าข้อมูลประกอบด้วย

ช่องว่างที่การกำกับดูแลยังตามไม่ทัน

ประเด็นนี้ยิ่งน่ากังวลมากขึ้น เมื่อเทียบกับสถานการณ์ด้านกฎระเบียบที่ยังพัฒนาไม่ทันความก้าวหน้าของ AI โดยในสหรัฐอเมริกา หน่วยงานด้านความมั่นคงชีวภาพมีทรัพยากรลดลงอย่างต่อเนื่อง งบประมาณด้าน Biodefense ในปี 2026 ลดลงเหลือประมาณ 27,000 ล้านดอลลาร์ และผู้เชี่ยวชาญบางส่วนได้ออกจากตำแหน่งโดยยังไม่มีการทดแทน

ขณะเดียวกัน แม้บริษัท AI จะมีการอัปเดตโมเดลและเพิ่มมาตรการความปลอดภัยอย่างต่อเนื่อง แต่ผู้ใช้งานยังสามารถเข้าถึงโมเดลเวอร์ชันเก่าที่มีระบบป้องกันต่ำกว่าได้ และในบางกรณี โมเดลใหม่เองก็ยังสามารถถูก 'Jailbreak' หรือหลบเลี่ยงข้อจำกัดได้ ซึ่งผู้เชี่ยวชาญเปรียบเทียบว่าระบบป้องกันในปัจจุบันยังเปราะบางเหมือนรั้วไม้บาง ๆ เท่านั้น

มุมมองจากบริษัทเทคโนโลยี

ฝั่งบริษัทเทคโนโลยีอย่าง Google และ Anthropic ออกมาชี้แจงว่า ข้อมูลที่ AI ให้เป็นเพียงข้อมูลที่มีอยู่แล้วในสาธารณะ และไม่ได้มีความเฉพาะเจาะจงเพียงพอสำหรับการนำไปใช้จริง พร้อมยืนยันว่าระบบมีการออกแบบให้ตรวจจับและปฏิเสธคำขอที่มีความเสี่ยง รวมถึงมีการพัฒนา Classifier และกลไกการป้องกันที่ซับซ้อนมากขึ้น

นอกจากนี้ บริษัทระบุว่ายังมีการทดสอบระบบอย่างต่อเนื่องในสถานการณ์จำลอง เพื่อป้องกันการใช้งานในทางที่ผิด และย้ำว่าการใช้งาน AI เพื่อก่ออันตรายถือเป็นการละเมิดนโยบายโดยตรง

เทคโนโลยีที่ต้องเดินคู่กับความรับผิดชอบ

แม้ความเป็นไปได้ของการเกิดเหตุการณ์ร้ายแรงจะยังอยู่ในระดับต่ำ แต่นักวิทยาศาสตร์เตือนว่าหากเกิดขึ้นจริง ผลกระทบอาจรุนแรงถึงขั้นคร่าชีวิตผู้คนจำนวนมาก มีข้อเสนอให้ จำกัดการเข้าถึงข้อมูลชีววิทยาที่มีความอ่อนไหว รวมถึงกำหนดมาตรฐานใหม่ในการพัฒนา AI เพื่อให้สมดุลระหว่างนวัตกรรมและความปลอดภัย

ขณะเดียวกัน ยังมีสัญญาณว่าการใช้ AI ในทางที่ผิดอาจเริ่มเกิดขึ้นแล้ว โดยมีรายงานกรณีผู้ต้องสงสัยที่ใช้ AI ในการค้นคว้าเกี่ยวกับสารพิษ ซึ่งสะท้อนให้เห็นว่าเทคโนโลยีนี้ไม่ได้เป็นเพียงความเสี่ยงในเชิงทฤษฎีอีกต่อไป

ภาพรวมของสถานการณ์สะท้อนให้เห็นว่า AI ทำให้การเข้าถึงความรู้ซับซ้อนง่ายขึ้นอย่างมหาศาล ความท้าทายสำคัญจึงอยู่ที่การคือการสร้างระบบกำกับดูแลที่แข็งแรงพอจะรองรับผลกระทบในอนาคต

คำถามสำคัญที่ตามมาคือ โลกควรเปิดให้เข้าถึงข้อมูลได้มากแค่ไหน และใครควรเป็นผู้กำหนดขอบเขต ก่อนที่ศักยภาพของ AI จะก้าวล้ำไปไกลกว่าความสามารถในการควบคุมของมนุษย์เอง

อ้างอิง: Inc.

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

สตาร์ทอัพออสเตรเลีย ทดลองใช้ 'เซลล์สมองมนุษย์' ประมวลผลแทนชิปใน Data Center หวังช่วยลดพลังงาน AI

สตาร์ทอัปจากออสเตรเลียกำลังสร้างสิ่งที่อาจจะกลายเป็น ‘ศูนย์ข้อมูลทางชีวภาพ’ แห่งแรกๆ ของโลก โดยการทดลองนำเซลล์ประสาทของมนุษย์ที่เพาะเลี้ยงในห้องแล็บมาทำงานร่วมกับชิปคอมพิวเตอร์...

Responsive image

NVIDIA เปิดตัว Nemotron 3 Nano Omni โมเดล AI รวมภาพ เสียง และภาษาในระบบเดียว เร่งความเร็ว AI Agent ได้สูงสุด 9 เท่า

NVIDIA เปิดตัว Nemotron 3 Nano Omni โมเดล AI ที่รวมภาพ เสียง และภาษาไว้ในระบบเดียว ช่วยให้ AI agent ทำงานได้เร็วขึ้นถึง 9 เท่า พร้อมรองรับงานวิเคราะห์ข้อมูลหลายรูปแบบในระดับองค์กร...

Responsive image

Ineffable Intelligence มาแล้ว AI Startup คนระดับตำนาน David Silver ผู้สร้าง AlphaGo

David Silver นักวิทยาศาสตร์ผู้อยู่เบื้องหลัง AlphaGo และ AlphaZero ออกจาก DeepMind เพื่อก่อตั้ง Ineffable Intelligence startup ที่ต้องการสร้าง AI ที่เรียนรู้ได้เองโดยไม่ต้องพึ่งข้อ...