Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024 | Techsauce

Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024

Jensen Huang CEO ของ Nvidia เผย ไม่เกิน 5 ปีจากนี้ เราอาจได้เห็น AI ที่ฉลาดเท่ามนุษย์ และปัญหา AI เกิดภาพหลอน สร้างข้อมูลมั่ว จะมีทางออก บทความนี้ Techsauce ชวนมาฟังความเห็นของ CEO บริษัทชิปที่ยิ่งใหญ่ที่สุดในโลก เกี่ยวกับอนาคตของปัญญาประดิษฐ์

อนาคต AI ยังไงต่อ ? ฟังทัศนะ Jensen Huang 

ในช่วงวันที่ 18-21 มีนาคม 67 ทาง Nvidia ได้จัดงาน GTC 2024 ซึ่งถือเป็นการประชุมใหญ่ที่มาอัปเดตข่าวสาร AI และเทคโนโลยีในอนาคต ด้าน Jensen Huang ขึ้นพูดในหลาย Sessions ที่เกี่ยวข้องกับปัญญาประดิษฐ์ รวมถึงประเด็นของ AGI และ AI Hallucination

1. ไม่เกิน 5 ปี เราจะได้เห็น AI ที่ฉลาดเท่ามนุษย์ 

เรื่องของ AGI หรือปัญญาประดิษฐ์ที่มีประสิทธิภาพเทียบเท่ามนุษย์ทั้งการคิด วิเคราะห์ ทำความเข้าใจ เรียนรู้ และสามารถประยุกต์ใช้ความสามารถของมันในการแก้ไขปัญหาต่าง ๆ ได้เอง เป็นประเด็นที่สร้างความกังวลให้กับมนุษยชาติมาอย่างยาวนาน เพราะถ้าเทคโนโลยีนี้ก้าวหน้าไปไกล AI อาจทำสิ่งที่ไม่คาดคิด และมนุษย์อาจไม่สามารถควบคุมมันได้

สื่อต่าง ๆ ได้ถาม Huang ถึงความเป็นไปได้ของการเกิด AGI ว่า “มันจะเกิดขึ้นเมื่อไหร่ ?” Huang เผยว่า การที่จะรับรู้คำตอบของคำว่า ‘เมื่อไหร่’ อาจจะต้องมีเกณฑ์ที่ชัดเจนว่า AGI ที่ทำสำเร็จเป็นยังไง เพราะในปัจจุบันผู้คนจะยังคงสับสนระหว่าง AGI กับ Narrow AI อยู่ ซึ่งความคาบเกี่ยวของเทคโนโลยี 2 ตัวนี้ Huang ได้อธิบายเอาไว้ดังนี้

  1. Narrow AI คือ ปัญญาประดิษฐ์ที่มีความสามารถเทียบเท่ามนุษย์ หรืออาจเก่งกว่าก็ได้ ซึ่งลักษณะเด่นอยู่ที่ การมีความสามารถที่เฉพาะเจาะจง จะเก่งมาก ๆ เพียงแค่เรื่องใดเรื่องหนึ่ง ไม่สามารถทำงานนนอกเหนือจากที่ได้รับการฝึกฝนมา
  2. AGI คือ ปัญญาประดิษฐ์ที่สามารถเรียนรู้แก้ปัญหาได้ด้วยตัวเอง มีจุดเด่นอยู่ที สามารถจัดการงานทุกประเภทได้ ไม่จำเป็นต้องเขียนโปรแกรมเฉพาะสำหรับแต่ละงาน

Huang ยกตัวอย่างว่า หากเราให้คำจำกัดความ AGI ว่าเป็นโปรแกรมซอฟต์แวร์ที่ทำงานได้ดีกว่าคนส่วนใหญ่ 8% เขาก็คาดว่ามันจะเกิดขึ้นมาได้ภายใน 5 ปีข้างหน้า แต่ถ้าไม่มีเกณฑ์กำหนดให้ชัดเจนก็ไม่สามารถคาดเดาหรือระบุได้ว่ามันจะเกิดขึ้นเมื่อไหร่

2. AI Hallucination

สำหรับ AI Hallucination หรืออาการหลอนของ AI ที่มักจะคิดคำตอบหรือสร้างข้อมูลมั่ว ๆ ขึ้นมา เพื่อตอบคำถามที่ตัวมันเองไม่รู้คำตอบอาจไม่ใช่ปัญหาอีกต่อไป เพราะ AI Hallucination มีทางแก้ไขได้ โดย Huang แนะนำว่าควร ‘เพิ่มกฎ’ ให้กับมัน

ซึ่งกฎที่เขาหมายถึงก็คือ ‘Retriival-Augmented Generation (RAG)’ หรือกระบวนการปรับเอาต์พุตโดยอ้างอิงฐานความรู้ที่เชื่อถือได้นอกแหล่งที่มาของข้อมูลการฝึกอบรมก่อนที่จะสร้างคำตอบ ดังนั้น ก่อนที่จะให้คำตอบ AI ต้องค้นหาข้อมูลเพื่อให้แน่ใจว่าได้ให้คำตอบที่ถูกต้องแม่นยำที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ในกรณีที่ AI ไม่ทราบคำตอบก็จำเป็นต้องมีความซื่อสัตย์ เช่น การตอบกลับตรงๆ ว่า "ฉันไม่รู้" หรือ "ฉันหาคำตอบที่ชัดเจนไม่ได้" เป็นต้น สิ่งนี้ถือเป็นข้อสำคัญที่ยกระดับให้ AI มีความน่าเชื่อถือยิ่งขึ้น

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

สรุป Microsoft Build เยือน ‘ไทย-อินโด-มาเลย์’ ลงทุนประเทศไหน ‘มากที่สุด’

Satya Nadella CEO ของ Microsoft ก็เดินทางมาร่วมแสดงวิสัยทัศน์ในงาน Microsoft Build: AI Day เรามาดูกันว่าในบรรดา 3 ประเทศที่ Microsoft เลือกลงทุนนี้ ใครจะได้อะไรไปบ้าง...

Responsive image

AI Palette ระดมทุน Series A1 Extension มูลค่า 500,000 ดอลลาร์สหรัฐ จาก ORZON Ventures เสริมแกร่งการขยายตลาด CPG

AI Palette ผู้นำด้านการใช้ AI ในการให้บริการโซลูชันสำหรับพัฒนาผลิตภัณฑ์ในกลุ่มสินค้าบรรจุภัณฑ์สำหรับผู้บริโภค ประกาศความสำเร็จในการระดมทุน 500,000 ดอลลาร์ ในรอบ Series A1 extension...

Responsive image

YouTrip เผยหยุดยาวคนไทยแห่เที่ยว "ญี่ปุ่น-จีน" ยอดใช้จ่ายเพิ่มขึ้น 150%

ในช่วงเทศกาลสงกรานต์ YouTrip พบว่า การใช้จ่ายเพิ่มขึ้นอย่างมีนัยสำคัญ โดยมียอดใช้จ่ายด้านการท่องเที่ยวในต่างประเทศเพิ่มขึ้น 150% เมื่อเทียบกับปีก่อน...