Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024 | Techsauce

Jensen Huang ตอบประเด็นอนาคต AI ยังไงต่อ ? ในงาน GTC 2024

Jensen Huang CEO ของ Nvidia เผย ไม่เกิน 5 ปีจากนี้ เราอาจได้เห็น AI ที่ฉลาดเท่ามนุษย์ และปัญหา AI เกิดภาพหลอน สร้างข้อมูลมั่ว จะมีทางออก บทความนี้ Techsauce ชวนมาฟังความเห็นของ CEO บริษัทชิปที่ยิ่งใหญ่ที่สุดในโลก เกี่ยวกับอนาคตของปัญญาประดิษฐ์

อนาคต AI ยังไงต่อ ? ฟังทัศนะ Jensen Huang 

ในช่วงวันที่ 18-21 มีนาคม 67 ทาง Nvidia ได้จัดงาน GTC 2024 ซึ่งถือเป็นการประชุมใหญ่ที่มาอัปเดตข่าวสาร AI และเทคโนโลยีในอนาคต ด้าน Jensen Huang ขึ้นพูดในหลาย Sessions ที่เกี่ยวข้องกับปัญญาประดิษฐ์ รวมถึงประเด็นของ AGI และ AI Hallucination

1. ไม่เกิน 5 ปี เราจะได้เห็น AI ที่ฉลาดเท่ามนุษย์ 

เรื่องของ AGI หรือปัญญาประดิษฐ์ที่มีประสิทธิภาพเทียบเท่ามนุษย์ทั้งการคิด วิเคราะห์ ทำความเข้าใจ เรียนรู้ และสามารถประยุกต์ใช้ความสามารถของมันในการแก้ไขปัญหาต่าง ๆ ได้เอง เป็นประเด็นที่สร้างความกังวลให้กับมนุษยชาติมาอย่างยาวนาน เพราะถ้าเทคโนโลยีนี้ก้าวหน้าไปไกล AI อาจทำสิ่งที่ไม่คาดคิด และมนุษย์อาจไม่สามารถควบคุมมันได้

สื่อต่าง ๆ ได้ถาม Huang ถึงความเป็นไปได้ของการเกิด AGI ว่า “มันจะเกิดขึ้นเมื่อไหร่ ?” Huang เผยว่า การที่จะรับรู้คำตอบของคำว่า ‘เมื่อไหร่’ อาจจะต้องมีเกณฑ์ที่ชัดเจนว่า AGI ที่ทำสำเร็จเป็นยังไง เพราะในปัจจุบันผู้คนจะยังคงสับสนระหว่าง AGI กับ Narrow AI อยู่ ซึ่งความคาบเกี่ยวของเทคโนโลยี 2 ตัวนี้ Huang ได้อธิบายเอาไว้ดังนี้

  1. Narrow AI คือ ปัญญาประดิษฐ์ที่มีความสามารถเทียบเท่ามนุษย์ หรืออาจเก่งกว่าก็ได้ ซึ่งลักษณะเด่นอยู่ที่ การมีความสามารถที่เฉพาะเจาะจง จะเก่งมาก ๆ เพียงแค่เรื่องใดเรื่องหนึ่ง ไม่สามารถทำงานนนอกเหนือจากที่ได้รับการฝึกฝนมา
  2. AGI คือ ปัญญาประดิษฐ์ที่สามารถเรียนรู้แก้ปัญหาได้ด้วยตัวเอง มีจุดเด่นอยู่ที สามารถจัดการงานทุกประเภทได้ ไม่จำเป็นต้องเขียนโปรแกรมเฉพาะสำหรับแต่ละงาน

Huang ยกตัวอย่างว่า หากเราให้คำจำกัดความ AGI ว่าเป็นโปรแกรมซอฟต์แวร์ที่ทำงานได้ดีกว่าคนส่วนใหญ่ 8% เขาก็คาดว่ามันจะเกิดขึ้นมาได้ภายใน 5 ปีข้างหน้า แต่ถ้าไม่มีเกณฑ์กำหนดให้ชัดเจนก็ไม่สามารถคาดเดาหรือระบุได้ว่ามันจะเกิดขึ้นเมื่อไหร่

2. AI Hallucination

สำหรับ AI Hallucination หรืออาการหลอนของ AI ที่มักจะคิดคำตอบหรือสร้างข้อมูลมั่ว ๆ ขึ้นมา เพื่อตอบคำถามที่ตัวมันเองไม่รู้คำตอบอาจไม่ใช่ปัญหาอีกต่อไป เพราะ AI Hallucination มีทางแก้ไขได้ โดย Huang แนะนำว่าควร ‘เพิ่มกฎ’ ให้กับมัน

ซึ่งกฎที่เขาหมายถึงก็คือ ‘Retriival-Augmented Generation (RAG)’ หรือกระบวนการปรับเอาต์พุตโดยอ้างอิงฐานความรู้ที่เชื่อถือได้นอกแหล่งที่มาของข้อมูลการฝึกอบรมก่อนที่จะสร้างคำตอบ ดังนั้น ก่อนที่จะให้คำตอบ AI ต้องค้นหาข้อมูลเพื่อให้แน่ใจว่าได้ให้คำตอบที่ถูกต้องแม่นยำที่สุดเท่าที่จะเป็นไปได้

นอกจากนี้ในกรณีที่ AI ไม่ทราบคำตอบก็จำเป็นต้องมีความซื่อสัตย์ เช่น การตอบกลับตรงๆ ว่า "ฉันไม่รู้" หรือ "ฉันหาคำตอบที่ชัดเจนไม่ได้" เป็นต้น สิ่งนี้ถือเป็นข้อสำคัญที่ยกระดับให้ AI มีความน่าเชื่อถือยิ่งขึ้น

อ้างอิง: techcrunch

ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

Meta ท้าชน Sora เปิดตัว Movie Gen หรือ AI สร้างวิดีโอตัวใหม่

ล่าสุด Meta เปิดตัว Movie Gen เครื่องมือสร้างวิดีโอด้วย AI โดยทาง Meta ได้ประกาศเรื่องนี้หลังจาก OpenAI เปิดตัวโมเดลสร้างวิดีโอจากข้อความชื่อว่า Sora เมื่อไม่กี่เดือนก่อน อย่างไรก็...

Responsive image

Google ทดสอบ ‘ติ๊กฟ้า’ ยืนยันเว็บไซต์ทางการ ยกระดับความปลอดภัยบนโลกออนไลน์

Google ทดลองกำกับติ๊กฟ้าบนเว็บไซต์ทางการของหลากหลายแบรนด์ที่ได้รับการยืนยัน ช่วยให้ผู้ใช้หลีกเลี่ยงการคลิกเว็บไซต์ปลอมหรือฉ้อโกง และเป็นการยืนยันได้ว่าไม่ใช่บริษัทลอกเลียนแบบที่พยา...

Responsive image

YouTube Shorts ยกระดับวิดีโอสั้น เพิ่มความยาววิดีโอสูงสุดเป็น 3 นาที พร้อมฟีเจอร์ใหม่ เริ่ม 15 ตุลาคมนี้

YouTube Shorts กำลังจะก้าวเข้าสู่ยุคใหม่ของการสร้างคอนเทนต์วิดีโอสั้น โดยเตรียมเพิ่มความยาวสูงสุดของวิดีโอจาก 60 วินาที เป็น 3 นาที นับเป็นการเปลี่ยนแปลงครั้งสำคัญที่จะเปิดโอกาสให้...