Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024

Jensen Huang CEO ของ Nvidia เผย ไม่เกิน 5 ปีจากนี้ เราอาจได้เห็น AI ที่ฉลาดเท่ามนุษย์ และปัญหา AI เกิดภาพหลอน สร้างข้อมูลมั่ว จะมีทางออก บทความนี้ Techsauce ชวนมาฟังความเห็นของ CEO บริษัทชิปที่ยิ่งใหญ่ที่สุดในโลก เกี่ยวกับอนาคตของปัญญาประดิษฐ์

อนาคต AI ยังไงต่อ ? ฟังทัศนะ Jensen Huang 

ในช่วงวันที่ 18-21 มีนาคม 67 ทาง Nvidia ได้จัดงาน GTC 2024 ซึ่งถือเป็นการประชุมใหญ่ที่มาอัปเดตข่าวสาร AI และเทคโนโลยีในอนาคต ด้าน Jensen Huang ขึ้นพูดในหลาย Sessions ที่เกี่ยวข้องกับปัญญาประดิษฐ์ รวมถึงประเด็นของ AGI และ AI Hallucination

1. ไม่เกิน 5 ปี เราจะได้เห็น AI ที่ฉลาดเท่ามนุษย์ 

เรื่องของ AGI หรือปัญญาประดิษฐ์ที่มีประสิทธิภาพเทียบเท่ามนุษย์ทั้งการคิด วิเคราะห์ ทำความเข้าใจ เรียนรู้ และสามารถประยุกต์ใช้ความสามารถของมันในการแก้ไขปัญหาต่าง ๆ ได้เอง เป็นประเด็นที่สร้างความกังวลให้กับมนุษยชาติมาอย่างยาวนาน เพราะถ้าเทคโนโลยีนี้ก้าวหน้าไปไกล AI อาจทำสิ่งที่ไม่คาดคิด และมนุษย์อาจไม่สามารถควบคุมมันได้

สื่อต่าง ๆ ได้ถาม Huang ถึงความเป็นไปได้ของการเกิด AGI ว่า “มันจะเกิดขึ้นเมื่อไหร่ ?” Huang เผยว่า การที่จะรับรู้คำตอบของคำว่า ‘เมื่อไหร่’ อาจจะต้องมีเกณฑ์ที่ชัดเจนว่า AGI ที่ทำสำเร็จเป็นยังไง เพราะในปัจจุบันผู้คนจะยังคงสับสนระหว่าง AGI กับ Narrow AI อยู่ ซึ่งความคาบเกี่ยวของเทคโนโลยี 2 ตัวนี้ Huang ได้อธิบายเอาไว้ดังนี้

  1. Narrow AI คือ ปัญญาประดิษฐ์ที่มีความสามารถเทียบเท่ามนุษย์ หรืออาจเก่งกว่าก็ได้ ซึ่งลักษณะเด่นอยู่ที่ การมีความสามารถที่เฉพาะเจาะจง จะเก่งมาก ๆ เพียงแค่เรื่องใดเรื่องหนึ่ง ไม่สามารถทำงานนนอกเหนือจากที่ได้รับการฝึกฝนมา
  2. AGI คือ ปัญญาประดิษฐ์ที่สามารถเรียนรู้แก้ปัญหาได้ด้วยตัวเอง มีจุดเด่นอยู่ที สามารถจัดการงานทุกประเภทได้ ไม่จำเป็นต้องเขียนโปรแกรมเฉพาะสำหรับแต่ละงาน

Huang ยกตัวอย่างว่า หากเราให้คำจำกัดความ AGI ว่าเป็นโปรแกรมซอฟต์แวร์ที่ทำงานได้ดีกว่าคนส่วนใหญ่ 8% เขาก็คาดว่ามันจะเกิดขึ้นมาได้ภายใน 5 ปีข้างหน้า แต่ถ้าไม่มีเกณฑ์กำหนดให้ชัดเจนก็ไม่สามารถคาดเดาหรือระบุได้ว่ามันจะเกิดขึ้นเมื่อไหร่

2. AI Hallucination

สำหรับ AI Hallucination หรืออาการหลอนของ AI ที่มักจะคิดคำตอบหรือสร้างข้อมูลมั่ว ๆ ขึ้นมา เพื่อตอบคำถามที่ตัวมันเองไม่รู้คำตอบอาจไม่ใช่ปัญหาอีกต่อไป เพราะ AI Hallucination มีทางแก้ไขได้ โดย Huang แนะนำว่าควร ‘เพิ่มกฎ’ ให้กับมัน

ซึ่งกฎที่เขาหมายถึงก็คือ ‘Retriival-Augmented Generation (RAG)’ หรือกระบวนการปรับเอาต์พุตโดยอ้างอิงฐานความรู้ที่เชื่อถือได้นอกแหล่งที่มาของข้อมูลการฝึกอบรมก่อนที่จะสร้างคำตอบ ดังนั้น ก่อนที่จะให้คำตอบ AI ต้องค้นหาข้อมูลเพื่อให้แน่ใจว่าได้ให้คำตอบที่ถูกต้องแม่นยำที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ในกรณีที่ AI ไม่ทราบคำตอบก็จำเป็นต้องมีความซื่อสัตย์ เช่น การตอบกลับตรงๆ ว่า "ฉันไม่รู้" หรือ "ฉันหาคำตอบที่ชัดเจนไม่ได้" เป็นต้น สิ่งนี้ถือเป็นข้อสำคัญที่ยกระดับให้ AI มีความน่าเชื่อถือยิ่งขึ้น

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

ถอดบทเรียนการเงิน SMEs จาก Financial Clinic+ โดย Techsauce x ThinkMate Business Advisory เปลี่ยนตัวเลขหลังบ้าน ให้เป็นกลยุทธ์นำธุรกิจ

Techsauce ผนึกกำลังกับ ThinkMate Business Advisory ริเริ่มโครงการ Financial Clinic+ ขึ้น เพื่อทำหน้าที่เป็นพี่เลี้ยง ช่วยปลดล็อกศักยภาพ SMEs ไทยผ่านความเข้าใจเรื่องบัญชีและการเงินท...

Responsive image

Yann LeCun เปิดตัว AMI Labs สตาร์ทอัพใหม่ ทุ่มสร้าง AI ที่เข้าใจโลกอย่างแท้จริง

Yann LeCun นักวิทยาศาสตร์ AI ระดับตำนานและเจ้าของรางวัล Turing Award เปิดตัว AMI Labs สตาร์ทอัพใหม่ที่เดิมพันอนาคต AI ด้วยแนวคิด World Model สร้าง AI ที่เข้าใจโลกจริง...

Responsive image

Techsauce ผนึก TCEB - หอการค้าโคราช ปักหมุดจัดงาน Techsauce Next Entrepreneur's Summit 'The Gateway to Isan' เร่งเครื่องโคราชสู่เมือง AI ระดับประเทศ

Techsauce ผนึก TCEB - หอการค้าโคราช ปักหมุดจัดงาน Techsauce Next Entrepreneur's Summit 'The Gateway to Isan' เร่งเครื่องโคราชสู่เมือง AI ระดับประเทศ...