Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024

Jensen Huang CEO ของ Nvidia เผย ไม่เกิน 5 ปีจากนี้ เราอาจได้เห็น AI ที่ฉลาดเท่ามนุษย์ และปัญหา AI เกิดภาพหลอน สร้างข้อมูลมั่ว จะมีทางออก บทความนี้ Techsauce ชวนมาฟังความเห็นของ CEO บริษัทชิปที่ยิ่งใหญ่ที่สุดในโลก เกี่ยวกับอนาคตของปัญญาประดิษฐ์

อนาคต AI ยังไงต่อ ? ฟังทัศนะ Jensen Huang 

ในช่วงวันที่ 18-21 มีนาคม 67 ทาง Nvidia ได้จัดงาน GTC 2024 ซึ่งถือเป็นการประชุมใหญ่ที่มาอัปเดตข่าวสาร AI และเทคโนโลยีในอนาคต ด้าน Jensen Huang ขึ้นพูดในหลาย Sessions ที่เกี่ยวข้องกับปัญญาประดิษฐ์ รวมถึงประเด็นของ AGI และ AI Hallucination

1. ไม่เกิน 5 ปี เราจะได้เห็น AI ที่ฉลาดเท่ามนุษย์ 

เรื่องของ AGI หรือปัญญาประดิษฐ์ที่มีประสิทธิภาพเทียบเท่ามนุษย์ทั้งการคิด วิเคราะห์ ทำความเข้าใจ เรียนรู้ และสามารถประยุกต์ใช้ความสามารถของมันในการแก้ไขปัญหาต่าง ๆ ได้เอง เป็นประเด็นที่สร้างความกังวลให้กับมนุษยชาติมาอย่างยาวนาน เพราะถ้าเทคโนโลยีนี้ก้าวหน้าไปไกล AI อาจทำสิ่งที่ไม่คาดคิด และมนุษย์อาจไม่สามารถควบคุมมันได้

สื่อต่าง ๆ ได้ถาม Huang ถึงความเป็นไปได้ของการเกิด AGI ว่า “มันจะเกิดขึ้นเมื่อไหร่ ?” Huang เผยว่า การที่จะรับรู้คำตอบของคำว่า ‘เมื่อไหร่’ อาจจะต้องมีเกณฑ์ที่ชัดเจนว่า AGI ที่ทำสำเร็จเป็นยังไง เพราะในปัจจุบันผู้คนจะยังคงสับสนระหว่าง AGI กับ Narrow AI อยู่ ซึ่งความคาบเกี่ยวของเทคโนโลยี 2 ตัวนี้ Huang ได้อธิบายเอาไว้ดังนี้

  1. Narrow AI คือ ปัญญาประดิษฐ์ที่มีความสามารถเทียบเท่ามนุษย์ หรืออาจเก่งกว่าก็ได้ ซึ่งลักษณะเด่นอยู่ที่ การมีความสามารถที่เฉพาะเจาะจง จะเก่งมาก ๆ เพียงแค่เรื่องใดเรื่องหนึ่ง ไม่สามารถทำงานนนอกเหนือจากที่ได้รับการฝึกฝนมา
  2. AGI คือ ปัญญาประดิษฐ์ที่สามารถเรียนรู้แก้ปัญหาได้ด้วยตัวเอง มีจุดเด่นอยู่ที สามารถจัดการงานทุกประเภทได้ ไม่จำเป็นต้องเขียนโปรแกรมเฉพาะสำหรับแต่ละงาน

Huang ยกตัวอย่างว่า หากเราให้คำจำกัดความ AGI ว่าเป็นโปรแกรมซอฟต์แวร์ที่ทำงานได้ดีกว่าคนส่วนใหญ่ 8% เขาก็คาดว่ามันจะเกิดขึ้นมาได้ภายใน 5 ปีข้างหน้า แต่ถ้าไม่มีเกณฑ์กำหนดให้ชัดเจนก็ไม่สามารถคาดเดาหรือระบุได้ว่ามันจะเกิดขึ้นเมื่อไหร่

2. AI Hallucination

สำหรับ AI Hallucination หรืออาการหลอนของ AI ที่มักจะคิดคำตอบหรือสร้างข้อมูลมั่ว ๆ ขึ้นมา เพื่อตอบคำถามที่ตัวมันเองไม่รู้คำตอบอาจไม่ใช่ปัญหาอีกต่อไป เพราะ AI Hallucination มีทางแก้ไขได้ โดย Huang แนะนำว่าควร ‘เพิ่มกฎ’ ให้กับมัน

ซึ่งกฎที่เขาหมายถึงก็คือ ‘Retriival-Augmented Generation (RAG)’ หรือกระบวนการปรับเอาต์พุตโดยอ้างอิงฐานความรู้ที่เชื่อถือได้นอกแหล่งที่มาของข้อมูลการฝึกอบรมก่อนที่จะสร้างคำตอบ ดังนั้น ก่อนที่จะให้คำตอบ AI ต้องค้นหาข้อมูลเพื่อให้แน่ใจว่าได้ให้คำตอบที่ถูกต้องแม่นยำที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ในกรณีที่ AI ไม่ทราบคำตอบก็จำเป็นต้องมีความซื่อสัตย์ เช่น การตอบกลับตรงๆ ว่า "ฉันไม่รู้" หรือ "ฉันหาคำตอบที่ชัดเจนไม่ได้" เป็นต้น สิ่งนี้ถือเป็นข้อสำคัญที่ยกระดับให้ AI มีความน่าเชื่อถือยิ่งขึ้น

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

รู้จัก ‘Space-Based Solar Power’ นวัตกรรมจาก ‘Overview Energy’ ส่งพลังงานแสงอาทิตย์จากนอกโลก เพื่อช่วยให้กลางคืนผลิตไฟได้

Overview Energy ระดมทุน 20 ล้านเหรียญ พัฒนาเทคโนโลยียิงเลเซอร์ส่งพลังงานแสงอาทิตย์จากอวกาศลงสู่แผงโซลาร์บนโลกโดยตรง ช่วยผลิตไฟฟ้าได้ 24 ชม. ไม่ต้องสร้างสถานีรับใหม่ เตรียมเปิดใช้จร...

Responsive image

AI กำลังไต่ระดับสู่ผู้เชี่ยวชาญด้านภาษา แม้ไม่เคยเรียนรู้สิ่งเหล่านั้นมาก่อน มีโอกาสเก่งเทียบนักภาษาศาสตร์

ค้นพบความสามารถใหม่ของ AI ที่สามารถวิเคราะห์ภาษามนุษย์ได้เหมือนนักภาษาศาสตร์จริง ๆ จากการสร้างผังประโยค แก้ความกำกวม และเข้าใจโครงสร้างภาษาอย่างลึกซึ้ง...

Responsive image

จีนเชื่อม ‘ศูนย์คอมพิวเตอร์’ 40 แห่ง ให้เป็น Supercomputer เครื่องเดียว

จีนเปิดเครือข่าย AI ระดับชาติ เชื่อมศูนย์คอมพิวเตอร์ทั่วประเทศเป็น ‘สมองยักษ์’ ยาวรอบโลก 1.5 รอบ เร็วแรงส่งข้อมูล 72 เทราไบต์เสร็จใน 2 ชั่วโมง จากเดิมที่ส่งผ่านเน็ตธรรมดาใช้เวลา 2 ...