MIT คิดค้นนวัตกรรม ‘ซ้อนชิป’ รวม Logic-Memory ในอันเดียว จับชิปซ้อนแนวตั้งเพื่อประหยัดพลังงาน เร่งแก้โจทย์ AI กินไฟหนัก

วิศวกรจาก MIT เปิดเผยความก้าวหน้าสำคัญด้านการออกแบบชิปที่อาจเป็นทางออกของปัญหาใหญ่ในโลกเทคโนโลยี ด้วยแนวคิดการ “ซ้อนส่วนประกอบวงจร” (Chip stacking) สร้างชิป AI ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะสำหรับงาน Generative AI, Deep learning และ Computer vision

หัวใจของปัญหาอยู่ที่ชิปยุคปัจจุบันยังแยกหน่วยประมวลผลออกจากหน่วยความจำ ทำให้ข้อมูลต้องวิ่งไปมาผ่านสายและ Interconnect จำนวนมาก ซึ่งเป็นต้นตอของการสิ้นเปลืองพลังงาน มากกว่าพลังงานที่ใช้ประมวลผลจริงเสียอีก

นวัตกรรมใหม่นี้จึงคิดค้นการซ้อนหน่วยประมวลผลและหน่วยความจำให้อยู่ใกล้กัน โดยสร้างสิ่งที่เรียกว่า "Memory Transistor"  ซึ่งเป็นอุปกรณ์ระดับนาโนที่รวมหน้าที่การประมวลผลและการจัดเก็บข้อมูลไว้ในอุปกรณ์เดียวกัน ทำให้ข้อมูลไม่ต้องเดินทางไกล ช่วยลดการสูญเสียพลังงานความร้อนที่เกิดขึ้นระหว่างทางได้อย่างมหาศาล

ผลงานนี้ถูกนำเสนอในงาน International Electron Devices Meeting (IEDM) เมื่อเดือนธันวาคมที่ผ่านมา โดยนักวิจัยระบุว่าอุปกรณ์ที่พัฒนาขึ้นมีข้อบกพร่องทางไฟฟ้าน้อย ทำงานได้เร็วขึ้น และใช้พลังงานต่ำลงอย่างมีนัยสำคัญ

เมื่อ AI ดันการใช้ไฟสู่ระดับวิกฤต

ความก้าวหน้านี้เกิดขึ้นท่ามกลางแรงกดดันด้านพลังงานจาก AI กล่าวคือ การพึ่งพา AI ที่เพิ่มขึ้นทั่วโลกมาพร้อมกับความต้องการพลังงานที่สูงตาม การใช้งาน AI อย่าง ChatGPT เพียงครั้งเดียวอาจสร้างความร้อนจนต้องใช้น้ำถึงหนึ่งขวดในการระบายความร้อน 

โดย International Energy Agency (IEA) คาดการณ์ว่า การใช้ไฟฟ้าของ Data Center ทั่วโลกจะเพิ่มขึ้นราว 130% ภายในปี 2030 แตะระดับเกือบ 945 เทราวัตต์-ชั่วโมง การประหยัดพลังงานในระดับชิปเพียงเล็กน้อย จึงส่งผลกระทบอันยิ่งใหญ่ต่อความยั่งยืนของโลก

ซ้อนชิปไม่ง่าย ต้องใช้วัสดุอุณหภูมิต่ำ

แม้แนวคิดการซ้อนหน่วยประมวลผลกับหน่วยความจำอาจดูตรงไปตรงมา แต่ความท้าทายคือกระบวนการผลิต เพราะการเคลือบชั้นวัสดุ (Deposition) มักต้องใช้อุณหภูมิสู กระบวนการผลิตเลเยอร์ใหม่มักต้องใช้ความร้อนสูงจนทำลายชิปเลเยอร์ข้างล่าง 

ทีม MIT แก้ปัญหานี้ด้วยการใช้เทคนิคการเคลือบผิวแบบใหม่ด้วยวัสดุ Indium Oxide ที่อุณหภูมิต่ำเพียง 150 องศาเซลเซียส ซึ่งต่ำพอที่จะไม่กระทบวงจรอื่น ทำให้สามารถวางซ้อนหน่วยความจำบนเลเยอร์ของ Logic ได้โดยไม่มีอะไรเสียหาย

ผลลัพธ์ที่ได้คือ ชิปที่สลับสถานะได้ในเวลาเพียง 10 นาโนวินาที และใช้แรงดันไฟฟ้าต่ำกว่า 1.8 โวลต์ ในขณะที่ชิปทั่วไปใช้ถึง 3-4 โวลต์ ซึ่งถือเป็นก้าวกระโดดที่สำคัญมากสำหรับอนาคตของ Generative AI, Deep learning และ Computer vision

ก้าวต่อไปสู่การผลิตจริง

ปัจจุบัน Memory Transistor ยังอยู่ในขั้นทดสอบบนโครงสร้างต้นแบบระดับชิป และยังไม่ถูกนำไปใช้งานในวงจรจริง ทีมวิจัยตั้งเป้ายกระดับประสิทธิภาพเพื่อให้สามารถผสานเข้ากับวงจรเดี่ยว และต่อยอดสู่ระบบอิเล็กทรอนิกส์ขนาดใหญ่ในอนาคต 

หากเทคโนโลยีนี้ก้าวสู่การใช้งานจริงได้สำเร็จ มันอาจกลายเป็นกุญแจสำคัญที่ทำให้การเติบโตของ AI เดินหน้าต่อไปได้อย่างยั่งยืน โดยไม่ต้องแลกกับต้นทุนพลังงานที่โลกไม่อาจรองรับได้อีกต่อไป

อ้างอิง: MIT News



ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

บีโอไอเผยยอดลงทุนปี 68 ทะยาน 1.8 ล้านล้านบาท เปลี่ยนเกมเศรษฐกิจไทย สู่ฐานนวัตกรรมแห่งอนาคต

บีโอไอเผยยอดขอรับการส่งเสริมการลงทุนปี 2568 มูลค่าสูงสุดเป็นประวัติการณ์กว่า 1.8 ล้านล้านบาท จากกว่า 3,300 โครงการ สะท้อนความเชื่อมั่นนักลงทุนทั่วโลก เดินหน้ายกระดับไทยสู่ศูนย์กลาง...

Responsive image

AI แซงเราไปแล้ว ? จับ 1 แสนคน แข่งคิดกับ AI วิจัยชี้ AI เก่งกว่าคนทั่วไปแล้ว แต่ยังโค่น ‘ผู้เชี่ยวชาญ’ ไม่ได้เลย

เมื่อ AI เริ่มคิดนอกกรอบแซงหน้าค่าเฉลี่ยมนุษย์ เจาะลึกผลวิจัยล่าสุดจาก Karim Jerbi และ Yoshua Bengio ที่ชี้ว่า AI คือผู้ช่วยชั้นยอด แต่ยังโค่นตัวจริงในวงการไม่ได้...

Responsive image

Blue Origin เปิดตัว TeraWave อินเทอร์เน็ตจากอวกาศ รับ–ส่งข้อมูลเร็วสูงสุด 6 Tbps เชื่อมพื้นที่ที่สายไฟเบอร์เข้าถึงยาก

Blue Origin เปิดตัว TeraWave เครือข่ายอินเทอร์เน็ตดาวเทียมจากอวกาศเพื่อองค์กร ศูนย์ข้อมูล และหน่วยงานรัฐ รองรับการรับ–ส่งข้อมูลแบบสมมาตร ด้วยความจุรวมสูงสุด 6 Tbps เสริมโครงข่ายภาค...