MIT คิดค้นนวัตกรรม ‘ซ้อนชิป’ รวม Logic-Memory ในอันเดียว จับชิปซ้อนแนวตั้งเพื่อประหยัดพลังงาน เร่งแก้โจทย์ AI กินไฟหนัก

วิศวกรจาก MIT เปิดเผยความก้าวหน้าสำคัญด้านการออกแบบชิปที่อาจเป็นทางออกของปัญหาใหญ่ในโลกเทคโนโลยี ด้วยแนวคิดการ “ซ้อนส่วนประกอบวงจร” (Chip stacking) สร้างชิป AI ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะสำหรับงาน Generative AI, Deep learning และ Computer vision

หัวใจของปัญหาอยู่ที่ชิปยุคปัจจุบันยังแยกหน่วยประมวลผลออกจากหน่วยความจำ ทำให้ข้อมูลต้องวิ่งไปมาผ่านสายและ Interconnect จำนวนมาก ซึ่งเป็นต้นตอของการสิ้นเปลืองพลังงาน มากกว่าพลังงานที่ใช้ประมวลผลจริงเสียอีก

นวัตกรรมใหม่นี้จึงคิดค้นการซ้อนหน่วยประมวลผลและหน่วยความจำให้อยู่ใกล้กัน โดยสร้างสิ่งที่เรียกว่า "Memory Transistor"  ซึ่งเป็นอุปกรณ์ระดับนาโนที่รวมหน้าที่การประมวลผลและการจัดเก็บข้อมูลไว้ในอุปกรณ์เดียวกัน ทำให้ข้อมูลไม่ต้องเดินทางไกล ช่วยลดการสูญเสียพลังงานความร้อนที่เกิดขึ้นระหว่างทางได้อย่างมหาศาล

ผลงานนี้ถูกนำเสนอในงาน International Electron Devices Meeting (IEDM) เมื่อเดือนธันวาคมที่ผ่านมา โดยนักวิจัยระบุว่าอุปกรณ์ที่พัฒนาขึ้นมีข้อบกพร่องทางไฟฟ้าน้อย ทำงานได้เร็วขึ้น และใช้พลังงานต่ำลงอย่างมีนัยสำคัญ

เมื่อ AI ดันการใช้ไฟสู่ระดับวิกฤต

ความก้าวหน้านี้เกิดขึ้นท่ามกลางแรงกดดันด้านพลังงานจาก AI กล่าวคือ การพึ่งพา AI ที่เพิ่มขึ้นทั่วโลกมาพร้อมกับความต้องการพลังงานที่สูงตาม การใช้งาน AI อย่าง ChatGPT เพียงครั้งเดียวอาจสร้างความร้อนจนต้องใช้น้ำถึงหนึ่งขวดในการระบายความร้อน 

โดย International Energy Agency (IEA) คาดการณ์ว่า การใช้ไฟฟ้าของ Data Center ทั่วโลกจะเพิ่มขึ้นราว 130% ภายในปี 2030 แตะระดับเกือบ 945 เทราวัตต์-ชั่วโมง การประหยัดพลังงานในระดับชิปเพียงเล็กน้อย จึงส่งผลกระทบอันยิ่งใหญ่ต่อความยั่งยืนของโลก

ซ้อนชิปไม่ง่าย ต้องใช้วัสดุอุณหภูมิต่ำ

แม้แนวคิดการซ้อนหน่วยประมวลผลกับหน่วยความจำอาจดูตรงไปตรงมา แต่ความท้าทายคือกระบวนการผลิต เพราะการเคลือบชั้นวัสดุ (Deposition) มักต้องใช้อุณหภูมิสู กระบวนการผลิตเลเยอร์ใหม่มักต้องใช้ความร้อนสูงจนทำลายชิปเลเยอร์ข้างล่าง 

ทีม MIT แก้ปัญหานี้ด้วยการใช้เทคนิคการเคลือบผิวแบบใหม่ด้วยวัสดุ Indium Oxide ที่อุณหภูมิต่ำเพียง 150 องศาเซลเซียส ซึ่งต่ำพอที่จะไม่กระทบวงจรอื่น ทำให้สามารถวางซ้อนหน่วยความจำบนเลเยอร์ของ Logic ได้โดยไม่มีอะไรเสียหาย

ผลลัพธ์ที่ได้คือ ชิปที่สลับสถานะได้ในเวลาเพียง 10 นาโนวินาที และใช้แรงดันไฟฟ้าต่ำกว่า 1.8 โวลต์ ในขณะที่ชิปทั่วไปใช้ถึง 3-4 โวลต์ ซึ่งถือเป็นก้าวกระโดดที่สำคัญมากสำหรับอนาคตของ Generative AI, Deep learning และ Computer vision

ก้าวต่อไปสู่การผลิตจริง

ปัจจุบัน Memory Transistor ยังอยู่ในขั้นทดสอบบนโครงสร้างต้นแบบระดับชิป และยังไม่ถูกนำไปใช้งานในวงจรจริง ทีมวิจัยตั้งเป้ายกระดับประสิทธิภาพเพื่อให้สามารถผสานเข้ากับวงจรเดี่ยว และต่อยอดสู่ระบบอิเล็กทรอนิกส์ขนาดใหญ่ในอนาคต 

หากเทคโนโลยีนี้ก้าวสู่การใช้งานจริงได้สำเร็จ มันอาจกลายเป็นกุญแจสำคัญที่ทำให้การเติบโตของ AI เดินหน้าต่อไปได้อย่างยั่งยืน โดยไม่ต้องแลกกับต้นทุนพลังงานที่โลกไม่อาจรองรับได้อีกต่อไป

อ้างอิง: MIT News



ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด

No comment

RELATED ARTICLE

Responsive image

อินแกรม ไมโคร แต่งตั้งผู้บริหารใหม่ ศุภกิจ ติยะวัชรพงศ์ ชูกลยุทธ์ Future Forward รับยุค AI

อินแกรม ไมโคร (ประเทศไทย) ประกาศแต่งตั้ง ศุภกิจ ติยะวัชรพงศ์ ขึ้นดำรงตำแหน่งกรรมการผู้จัดการ (Managing Director) คนใหม่ พร้อมเปิดตัวกลยุทธ์ Future Forward ที่มุ่งเน้นการขับเคลื่อนต...

Responsive image

High-Tech, Low-Life เมื่อจีนเมืองล้ำหน้าด้วย AI แต่คนข้างล่างกำลังอดตาย

เมืองไฮเทคแต่คนอดตาย? เจาะลึกวิกฤต AI ในจีน เมื่อนวัตกรรม 'AI Plus' กำลัง Disrupt โครงสร้างแรงงานอย่างรุนแรง จนบีบให้ สี จิ้นผิง ต้องรื้อตำราปกครองและยอมจำนนต่อระบบรัฐสวัสดิการเพื่...

Responsive image

จากจอกันเผือก ถึง 400 ล้านเครื่องทั่วโลก ทำไม Samsung Galaxy S26 Series ถึงสร้างปรากฏการณ์ใหม่ให้ตลาดมือถือไทย

ถอดรหัสความสำเร็จ Samsung Galaxy S26 กับนวัตกรรม Agentic AI และ Privacy Display พร้อมวิเคราะห์ตลาดสมาร์ทโฟนไทย เมื่อระบบผ่อนชำระดันยอดขายพรีเมียมโตสวนเศรษฐกิจ...