MIT คิดค้นนวัตกรรม ‘ซ้อนชิป’ รวม Logic-Memory ในอันเดียว จับชิปซ้อนแนวตั้งเพื่อประหยัดพลังงาน เร่งแก้โจทย์ AI กินไฟหนัก

วิศวกรจาก MIT เปิดเผยความก้าวหน้าสำคัญด้านการออกแบบชิปที่อาจเป็นทางออกของปัญหาใหญ่ในโลกเทคโนโลยี ด้วยแนวคิดการ “ซ้อนส่วนประกอบวงจร” (Chip stacking) สร้างชิป AI ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะสำหรับงาน Generative AI, Deep learning และ Computer vision

หัวใจของปัญหาอยู่ที่ชิปยุคปัจจุบันยังแยกหน่วยประมวลผลออกจากหน่วยความจำ ทำให้ข้อมูลต้องวิ่งไปมาผ่านสายและ Interconnect จำนวนมาก ซึ่งเป็นต้นตอของการสิ้นเปลืองพลังงาน มากกว่าพลังงานที่ใช้ประมวลผลจริงเสียอีก

นวัตกรรมใหม่นี้จึงคิดค้นการซ้อนหน่วยประมวลผลและหน่วยความจำให้อยู่ใกล้กัน โดยสร้างสิ่งที่เรียกว่า "Memory Transistor"  ซึ่งเป็นอุปกรณ์ระดับนาโนที่รวมหน้าที่การประมวลผลและการจัดเก็บข้อมูลไว้ในอุปกรณ์เดียวกัน ทำให้ข้อมูลไม่ต้องเดินทางไกล ช่วยลดการสูญเสียพลังงานความร้อนที่เกิดขึ้นระหว่างทางได้อย่างมหาศาล

ผลงานนี้ถูกนำเสนอในงาน International Electron Devices Meeting (IEDM) เมื่อเดือนธันวาคมที่ผ่านมา โดยนักวิจัยระบุว่าอุปกรณ์ที่พัฒนาขึ้นมีข้อบกพร่องทางไฟฟ้าน้อย ทำงานได้เร็วขึ้น และใช้พลังงานต่ำลงอย่างมีนัยสำคัญ

เมื่อ AI ดันการใช้ไฟสู่ระดับวิกฤต

ความก้าวหน้านี้เกิดขึ้นท่ามกลางแรงกดดันด้านพลังงานจาก AI กล่าวคือ การพึ่งพา AI ที่เพิ่มขึ้นทั่วโลกมาพร้อมกับความต้องการพลังงานที่สูงตาม การใช้งาน AI อย่าง ChatGPT เพียงครั้งเดียวอาจสร้างความร้อนจนต้องใช้น้ำถึงหนึ่งขวดในการระบายความร้อน 

โดย International Energy Agency (IEA) คาดการณ์ว่า การใช้ไฟฟ้าของ Data Center ทั่วโลกจะเพิ่มขึ้นราว 130% ภายในปี 2030 แตะระดับเกือบ 945 เทราวัตต์-ชั่วโมง การประหยัดพลังงานในระดับชิปเพียงเล็กน้อย จึงส่งผลกระทบอันยิ่งใหญ่ต่อความยั่งยืนของโลก

ซ้อนชิปไม่ง่าย ต้องใช้วัสดุอุณหภูมิต่ำ

แม้แนวคิดการซ้อนหน่วยประมวลผลกับหน่วยความจำอาจดูตรงไปตรงมา แต่ความท้าทายคือกระบวนการผลิต เพราะการเคลือบชั้นวัสดุ (Deposition) มักต้องใช้อุณหภูมิสู กระบวนการผลิตเลเยอร์ใหม่มักต้องใช้ความร้อนสูงจนทำลายชิปเลเยอร์ข้างล่าง 

ทีม MIT แก้ปัญหานี้ด้วยการใช้เทคนิคการเคลือบผิวแบบใหม่ด้วยวัสดุ Indium Oxide ที่อุณหภูมิต่ำเพียง 150 องศาเซลเซียส ซึ่งต่ำพอที่จะไม่กระทบวงจรอื่น ทำให้สามารถวางซ้อนหน่วยความจำบนเลเยอร์ของ Logic ได้โดยไม่มีอะไรเสียหาย

ผลลัพธ์ที่ได้คือ ชิปที่สลับสถานะได้ในเวลาเพียง 10 นาโนวินาที และใช้แรงดันไฟฟ้าต่ำกว่า 1.8 โวลต์ ในขณะที่ชิปทั่วไปใช้ถึง 3-4 โวลต์ ซึ่งถือเป็นก้าวกระโดดที่สำคัญมากสำหรับอนาคตของ Generative AI, Deep learning และ Computer vision

ก้าวต่อไปสู่การผลิตจริง

ปัจจุบัน Memory Transistor ยังอยู่ในขั้นทดสอบบนโครงสร้างต้นแบบระดับชิป และยังไม่ถูกนำไปใช้งานในวงจรจริง ทีมวิจัยตั้งเป้ายกระดับประสิทธิภาพเพื่อให้สามารถผสานเข้ากับวงจรเดี่ยว และต่อยอดสู่ระบบอิเล็กทรอนิกส์ขนาดใหญ่ในอนาคต 

หากเทคโนโลยีนี้ก้าวสู่การใช้งานจริงได้สำเร็จ มันอาจกลายเป็นกุญแจสำคัญที่ทำให้การเติบโตของ AI เดินหน้าต่อไปได้อย่างยั่งยืน โดยไม่ต้องแลกกับต้นทุนพลังงานที่โลกไม่อาจรองรับได้อีกต่อไป

อ้างอิง: MIT News



ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

SCBX Group แต่งตั้ง 'จิมมี่ ฟาน' นั่ง CEO คนใหม่ของ CardX มีผล 1 พ.ค. 2569

กลุ่มเอสซีบีเอกซ์ (SCBX) ประกาศแต่งตั้ง คุณจิมมี่ ฟาน (Jimmy Fan) ขึ้นดำรงตำแหน่ง CEO บริษัท คาร์ด เอกซ์ จำกัด (CardX) คนใหม่ มีผลตั้งแต่ 1 พฤษภาคม 2569 เป็นส่วนหนึ่งของแผน Success...

Responsive image

โลกสุขภาพเปลี่ยนไปแล้ว เราจะปั้นหมอยุคใหม่อย่างไร ให้เข้าใจทั้งเทคโนโลยีและหัวใจคน

ในช่วงไม่กี่ปีที่ผ่านมา คำว่า ‘Healthspan’ เริ่มถูกพูดถึงมากขึ้นเรื่อย ๆ ในวงการสุขภาพ และไม่ใช่แค่ในเชิงทฤษฎี แต่กำลังกลายเป็นเรื่องที่ทุกคนต้องให้ความสำคัญจริงจัง...

Responsive image

สรุปของใหม่จากงาน HP Imagine 2026 เมื่อ HP ไม่ได้แค่ขายคอมพิวเตอร์ แต่กำลังสร้าง 'โครงสร้างพื้นฐาน AI' ให้คนทำงาน

Techsauce มีโอกาสได้เป็นหนึ่งในสื่อจากทั่วโลกที่เข้าร่วมงาน HP Imagine 2026 ที่ New York สหรัฐฯ จึงไม่พลาดสรุปทุกสิ่งที่เปิดตัว พร้อมวิเคราะห์ว่าทำไม HP ถึงวางกลยุทธ์แบบนี้ในจังหวะ...