Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024

Jensen Huang CEO ของ Nvidia เผย ไม่เกิน 5 ปีจากนี้ เราอาจได้เห็น AI ที่ฉลาดเท่ามนุษย์ และปัญหา AI เกิดภาพหลอน สร้างข้อมูลมั่ว จะมีทางออก บทความนี้ Techsauce ชวนมาฟังความเห็นของ CEO บริษัทชิปที่ยิ่งใหญ่ที่สุดในโลก เกี่ยวกับอนาคตของปัญญาประดิษฐ์

อนาคต AI ยังไงต่อ ? ฟังทัศนะ Jensen Huang 

ในช่วงวันที่ 18-21 มีนาคม 67 ทาง Nvidia ได้จัดงาน GTC 2024 ซึ่งถือเป็นการประชุมใหญ่ที่มาอัปเดตข่าวสาร AI และเทคโนโลยีในอนาคต ด้าน Jensen Huang ขึ้นพูดในหลาย Sessions ที่เกี่ยวข้องกับปัญญาประดิษฐ์ รวมถึงประเด็นของ AGI และ AI Hallucination

1. ไม่เกิน 5 ปี เราจะได้เห็น AI ที่ฉลาดเท่ามนุษย์ 

เรื่องของ AGI หรือปัญญาประดิษฐ์ที่มีประสิทธิภาพเทียบเท่ามนุษย์ทั้งการคิด วิเคราะห์ ทำความเข้าใจ เรียนรู้ และสามารถประยุกต์ใช้ความสามารถของมันในการแก้ไขปัญหาต่าง ๆ ได้เอง เป็นประเด็นที่สร้างความกังวลให้กับมนุษยชาติมาอย่างยาวนาน เพราะถ้าเทคโนโลยีนี้ก้าวหน้าไปไกล AI อาจทำสิ่งที่ไม่คาดคิด และมนุษย์อาจไม่สามารถควบคุมมันได้

สื่อต่าง ๆ ได้ถาม Huang ถึงความเป็นไปได้ของการเกิด AGI ว่า “มันจะเกิดขึ้นเมื่อไหร่ ?” Huang เผยว่า การที่จะรับรู้คำตอบของคำว่า ‘เมื่อไหร่’ อาจจะต้องมีเกณฑ์ที่ชัดเจนว่า AGI ที่ทำสำเร็จเป็นยังไง เพราะในปัจจุบันผู้คนจะยังคงสับสนระหว่าง AGI กับ Narrow AI อยู่ ซึ่งความคาบเกี่ยวของเทคโนโลยี 2 ตัวนี้ Huang ได้อธิบายเอาไว้ดังนี้

  1. Narrow AI คือ ปัญญาประดิษฐ์ที่มีความสามารถเทียบเท่ามนุษย์ หรืออาจเก่งกว่าก็ได้ ซึ่งลักษณะเด่นอยู่ที่ การมีความสามารถที่เฉพาะเจาะจง จะเก่งมาก ๆ เพียงแค่เรื่องใดเรื่องหนึ่ง ไม่สามารถทำงานนนอกเหนือจากที่ได้รับการฝึกฝนมา
  2. AGI คือ ปัญญาประดิษฐ์ที่สามารถเรียนรู้แก้ปัญหาได้ด้วยตัวเอง มีจุดเด่นอยู่ที สามารถจัดการงานทุกประเภทได้ ไม่จำเป็นต้องเขียนโปรแกรมเฉพาะสำหรับแต่ละงาน

Huang ยกตัวอย่างว่า หากเราให้คำจำกัดความ AGI ว่าเป็นโปรแกรมซอฟต์แวร์ที่ทำงานได้ดีกว่าคนส่วนใหญ่ 8% เขาก็คาดว่ามันจะเกิดขึ้นมาได้ภายใน 5 ปีข้างหน้า แต่ถ้าไม่มีเกณฑ์กำหนดให้ชัดเจนก็ไม่สามารถคาดเดาหรือระบุได้ว่ามันจะเกิดขึ้นเมื่อไหร่

2. AI Hallucination

สำหรับ AI Hallucination หรืออาการหลอนของ AI ที่มักจะคิดคำตอบหรือสร้างข้อมูลมั่ว ๆ ขึ้นมา เพื่อตอบคำถามที่ตัวมันเองไม่รู้คำตอบอาจไม่ใช่ปัญหาอีกต่อไป เพราะ AI Hallucination มีทางแก้ไขได้ โดย Huang แนะนำว่าควร ‘เพิ่มกฎ’ ให้กับมัน

ซึ่งกฎที่เขาหมายถึงก็คือ ‘Retriival-Augmented Generation (RAG)’ หรือกระบวนการปรับเอาต์พุตโดยอ้างอิงฐานความรู้ที่เชื่อถือได้นอกแหล่งที่มาของข้อมูลการฝึกอบรมก่อนที่จะสร้างคำตอบ ดังนั้น ก่อนที่จะให้คำตอบ AI ต้องค้นหาข้อมูลเพื่อให้แน่ใจว่าได้ให้คำตอบที่ถูกต้องแม่นยำที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ในกรณีที่ AI ไม่ทราบคำตอบก็จำเป็นต้องมีความซื่อสัตย์ เช่น การตอบกลับตรงๆ ว่า "ฉันไม่รู้" หรือ "ฉันหาคำตอบที่ชัดเจนไม่ได้" เป็นต้น สิ่งนี้ถือเป็นข้อสำคัญที่ยกระดับให้ AI มีความน่าเชื่อถือยิ่งขึ้น

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

ทำไมฮ่องกงถึงกลายเป็นเบอร์ 3 แห่งโลกการเงิน เมื่อตลาดทุน + การเชื่อมจีนกับโลก + กฎ+ AI for Finance รวมตัวกันเป็นความได้เปรียบที่เมืองอื่นลอกได้ยาก

Techsauce มีโอกาสเดินทางไปร่วมงาน Asian Financial Forum 2026 ที่ฮ่องกง เพื่อหาคำตอบกับคำถามที่น่าสนใจมากข้อหนึ่งว่า ในโลกที่ศูนย์กลางการเงินแข่งขันกันดุเดือดขึ้นทุกปี ทำไมฮ่องกงยัง...

Responsive image

รู้จัก ‘Nemotron 3 Super’ Open Source ล่าสุดจาก NVIDIA โมเดล AI สำหรับระบบ Agentic Reasoning ประมวลผลเร็วกว่ารุ่นเดิม 5 เท่า

ทำความรู้จัก ‘Nemotron 3 Super’ โมเดล AI โอเพนซอร์สใหม่ล่าสุดที่ใช้สถาปัตยกรรมลูกผสม ประมวลผลเร็วขึ้น 5 เท่า ความจำระดับ 1 ล้านหน่วยคำ ตอบโจทย์การสร้างปัญญาประดิษฐ์อัตโนมัติ...

Responsive image

Microsoft เปิดตัว ‘Copilot Health’ AI สรุปข้อมูลสุขภาพ วิเคราะห์ข้อมูลจากผลตรวจสุขภาพ และ Smartwatch ปลอดภัยสูง ข้อมูลไม่ถูกนำไปเทรน AI

Microsoft เปิดตัว Copilot Health ผู้ช่วย AI อัจฉริยะที่รวบรวมข้อมูลจาก Wearable และประวัติการรักษา เพื่อวิเคราะห์และสรุปผลสุขภาพอย่างปลอดภัย ช่วยเตรียมความพร้อมก่อนพบแพทย์ พร้อมมาต...