MIT คิดค้นนวัตกรรม ‘ซ้อนชิป’ รวม Logic-Memory ในอันเดียว จับชิปซ้อนแนวตั้งเพื่อประหยัดพลังงาน เร่งแก้โจทย์ AI กินไฟหนัก

วิศวกรจาก MIT เปิดเผยความก้าวหน้าสำคัญด้านการออกแบบชิปที่อาจเป็นทางออกของปัญหาใหญ่ในโลกเทคโนโลยี ด้วยแนวคิดการ “ซ้อนส่วนประกอบวงจร” (Chip stacking) สร้างชิป AI ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะสำหรับงาน Generative AI, Deep learning และ Computer vision

หัวใจของปัญหาอยู่ที่ชิปยุคปัจจุบันยังแยกหน่วยประมวลผลออกจากหน่วยความจำ ทำให้ข้อมูลต้องวิ่งไปมาผ่านสายและ Interconnect จำนวนมาก ซึ่งเป็นต้นตอของการสิ้นเปลืองพลังงาน มากกว่าพลังงานที่ใช้ประมวลผลจริงเสียอีก

นวัตกรรมใหม่นี้จึงคิดค้นการซ้อนหน่วยประมวลผลและหน่วยความจำให้อยู่ใกล้กัน โดยสร้างสิ่งที่เรียกว่า "Memory Transistor"  ซึ่งเป็นอุปกรณ์ระดับนาโนที่รวมหน้าที่การประมวลผลและการจัดเก็บข้อมูลไว้ในอุปกรณ์เดียวกัน ทำให้ข้อมูลไม่ต้องเดินทางไกล ช่วยลดการสูญเสียพลังงานความร้อนที่เกิดขึ้นระหว่างทางได้อย่างมหาศาล

ผลงานนี้ถูกนำเสนอในงาน International Electron Devices Meeting (IEDM) เมื่อเดือนธันวาคมที่ผ่านมา โดยนักวิจัยระบุว่าอุปกรณ์ที่พัฒนาขึ้นมีข้อบกพร่องทางไฟฟ้าน้อย ทำงานได้เร็วขึ้น และใช้พลังงานต่ำลงอย่างมีนัยสำคัญ

เมื่อ AI ดันการใช้ไฟสู่ระดับวิกฤต

ความก้าวหน้านี้เกิดขึ้นท่ามกลางแรงกดดันด้านพลังงานจาก AI กล่าวคือ การพึ่งพา AI ที่เพิ่มขึ้นทั่วโลกมาพร้อมกับความต้องการพลังงานที่สูงตาม การใช้งาน AI อย่าง ChatGPT เพียงครั้งเดียวอาจสร้างความร้อนจนต้องใช้น้ำถึงหนึ่งขวดในการระบายความร้อน 

โดย International Energy Agency (IEA) คาดการณ์ว่า การใช้ไฟฟ้าของ Data Center ทั่วโลกจะเพิ่มขึ้นราว 130% ภายในปี 2030 แตะระดับเกือบ 945 เทราวัตต์-ชั่วโมง การประหยัดพลังงานในระดับชิปเพียงเล็กน้อย จึงส่งผลกระทบอันยิ่งใหญ่ต่อความยั่งยืนของโลก

ซ้อนชิปไม่ง่าย ต้องใช้วัสดุอุณหภูมิต่ำ

แม้แนวคิดการซ้อนหน่วยประมวลผลกับหน่วยความจำอาจดูตรงไปตรงมา แต่ความท้าทายคือกระบวนการผลิต เพราะการเคลือบชั้นวัสดุ (Deposition) มักต้องใช้อุณหภูมิสู กระบวนการผลิตเลเยอร์ใหม่มักต้องใช้ความร้อนสูงจนทำลายชิปเลเยอร์ข้างล่าง 

ทีม MIT แก้ปัญหานี้ด้วยการใช้เทคนิคการเคลือบผิวแบบใหม่ด้วยวัสดุ Indium Oxide ที่อุณหภูมิต่ำเพียง 150 องศาเซลเซียส ซึ่งต่ำพอที่จะไม่กระทบวงจรอื่น ทำให้สามารถวางซ้อนหน่วยความจำบนเลเยอร์ของ Logic ได้โดยไม่มีอะไรเสียหาย

ผลลัพธ์ที่ได้คือ ชิปที่สลับสถานะได้ในเวลาเพียง 10 นาโนวินาที และใช้แรงดันไฟฟ้าต่ำกว่า 1.8 โวลต์ ในขณะที่ชิปทั่วไปใช้ถึง 3-4 โวลต์ ซึ่งถือเป็นก้าวกระโดดที่สำคัญมากสำหรับอนาคตของ Generative AI, Deep learning และ Computer vision

ก้าวต่อไปสู่การผลิตจริง

ปัจจุบัน Memory Transistor ยังอยู่ในขั้นทดสอบบนโครงสร้างต้นแบบระดับชิป และยังไม่ถูกนำไปใช้งานในวงจรจริง ทีมวิจัยตั้งเป้ายกระดับประสิทธิภาพเพื่อให้สามารถผสานเข้ากับวงจรเดี่ยว และต่อยอดสู่ระบบอิเล็กทรอนิกส์ขนาดใหญ่ในอนาคต 

หากเทคโนโลยีนี้ก้าวสู่การใช้งานจริงได้สำเร็จ มันอาจกลายเป็นกุญแจสำคัญที่ทำให้การเติบโตของ AI เดินหน้าต่อไปได้อย่างยั่งยืน โดยไม่ต้องแลกกับต้นทุนพลังงานที่โลกไม่อาจรองรับได้อีกต่อไป

อ้างอิง: MIT News



ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

นักวิทย์พบวิธีผลิต ‘Graphene’ สุดล้ำ ซ่อนอยู่ในสิทธิบัตรหลอดไฟของ Thomas Edison เมื่อ 129 ปีก่อน

นักวิทย์ค้นพบวิธีผลิต Graphene จากสิทธิบัตรหลอดไฟ 129 ปีของ Thomas Edison! เผยเทคนิคการใช้ความร้อนเปลี่ยนไส้หลอดคาร์บอนให้เป็นวัสดุล้ำค่าสำหรับ Quantum Computer ที่ Edison สร้างขึ้...

Responsive image

อันดับดิจิทัลไทยร่วงจาก 37 มา 38 ผอ. IMD ระบุ ตัวชี้วัดไหนแก้ยากสุด องค์กรไทยทำอะไรได้บ้าง

“Beyond the Ranking” สัมมนาเพื่อเพิ่มศักยภาพธุรกิจในไทย จัดโดย ETDA และ TMA ไฮไลต์ของงานคือ Prof. Arturo Bris ผู้อำนวยการ IMD World Competitiveness Center สวิตเซอร์แลนด์ มาบรรยายตั...

Responsive image

AI ส่งงานไม่ผ่าน เลยเขียนบล็อกแฉคนตรวจ! บทเรียนจาก AI Agent ‘MJ Rathbun’ ใช้จิตวิทยาเชิงลบกดดันคนใน GitHub

กรณีศึกษาแรกของโลก! AI Agent โจมตีนักพัฒนา Matplotlib ผ่านบล็อกหลังโดนปัดตกโค้ด สะท้อนความเสี่ยงใหม่เมื่อ AI ใช้จิตวิทยากดดันมนุษย์...