วิศวกรจาก MIT เปิดเผยความก้าวหน้าสำคัญด้านการออกแบบชิปที่อาจเป็นทางออกของปัญหาใหญ่ในโลกเทคโนโลยี ด้วยแนวคิดการ “ซ้อนส่วนประกอบวงจร” (Chip stacking) สร้างชิป AI ที่ประหยัดพลังงานมากขึ้น โดยเฉพาะสำหรับงาน Generative AI, Deep learning และ Computer vision
หัวใจของปัญหาอยู่ที่ชิปยุคปัจจุบันยังแยกหน่วยประมวลผลออกจากหน่วยความจำ ทำให้ข้อมูลต้องวิ่งไปมาผ่านสายและ Interconnect จำนวนมาก ซึ่งเป็นต้นตอของการสิ้นเปลืองพลังงาน มากกว่าพลังงานที่ใช้ประมวลผลจริงเสียอีก

นวัตกรรมใหม่นี้จึงคิดค้นการซ้อนหน่วยประมวลผลและหน่วยความจำให้อยู่ใกล้กัน โดยสร้างสิ่งที่เรียกว่า "Memory Transistor" ซึ่งเป็นอุปกรณ์ระดับนาโนที่รวมหน้าที่การประมวลผลและการจัดเก็บข้อมูลไว้ในอุปกรณ์เดียวกัน ทำให้ข้อมูลไม่ต้องเดินทางไกล ช่วยลดการสูญเสียพลังงานความร้อนที่เกิดขึ้นระหว่างทางได้อย่างมหาศาล
ผลงานนี้ถูกนำเสนอในงาน International Electron Devices Meeting (IEDM) เมื่อเดือนธันวาคมที่ผ่านมา โดยนักวิจัยระบุว่าอุปกรณ์ที่พัฒนาขึ้นมีข้อบกพร่องทางไฟฟ้าน้อย ทำงานได้เร็วขึ้น และใช้พลังงานต่ำลงอย่างมีนัยสำคัญ
ความก้าวหน้านี้เกิดขึ้นท่ามกลางแรงกดดันด้านพลังงานจาก AI กล่าวคือ การพึ่งพา AI ที่เพิ่มขึ้นทั่วโลกมาพร้อมกับความต้องการพลังงานที่สูงตาม การใช้งาน AI อย่าง ChatGPT เพียงครั้งเดียวอาจสร้างความร้อนจนต้องใช้น้ำถึงหนึ่งขวดในการระบายความร้อน
โดย International Energy Agency (IEA) คาดการณ์ว่า การใช้ไฟฟ้าของ Data Center ทั่วโลกจะเพิ่มขึ้นราว 130% ภายในปี 2030 แตะระดับเกือบ 945 เทราวัตต์-ชั่วโมง การประหยัดพลังงานในระดับชิปเพียงเล็กน้อย จึงส่งผลกระทบอันยิ่งใหญ่ต่อความยั่งยืนของโลก
แม้แนวคิดการซ้อนหน่วยประมวลผลกับหน่วยความจำอาจดูตรงไปตรงมา แต่ความท้าทายคือกระบวนการผลิต เพราะการเคลือบชั้นวัสดุ (Deposition) มักต้องใช้อุณหภูมิสูง กระบวนการผลิตเลเยอร์ใหม่มักต้องใช้ความร้อนสูงจนทำลายชิปเลเยอร์ข้างล่าง
ทีม MIT แก้ปัญหานี้ด้วยการใช้เทคนิคการเคลือบผิวแบบใหม่ด้วยวัสดุ Indium Oxide ที่อุณหภูมิต่ำเพียง 150 องศาเซลเซียส ซึ่งต่ำพอที่จะไม่กระทบวงจรอื่น ทำให้สามารถวางซ้อนหน่วยความจำบนเลเยอร์ของ Logic ได้โดยไม่มีอะไรเสียหาย
ผลลัพธ์ที่ได้คือ ชิปที่สลับสถานะได้ในเวลาเพียง 10 นาโนวินาที และใช้แรงดันไฟฟ้าต่ำกว่า 1.8 โวลต์ ในขณะที่ชิปทั่วไปใช้ถึง 3-4 โวลต์ ซึ่งถือเป็นก้าวกระโดดที่สำคัญมากสำหรับอนาคตของ Generative AI, Deep learning และ Computer vision
ปัจจุบัน Memory Transistor ยังอยู่ในขั้นทดสอบบนโครงสร้างต้นแบบระดับชิป และยังไม่ถูกนำไปใช้งานในวงจรจริง ทีมวิจัยตั้งเป้ายกระดับประสิทธิภาพเพื่อให้สามารถผสานเข้ากับวงจรเดี่ยว และต่อยอดสู่ระบบอิเล็กทรอนิกส์ขนาดใหญ่ในอนาคต
หากเทคโนโลยีนี้ก้าวสู่การใช้งานจริงได้สำเร็จ มันอาจกลายเป็นกุญแจสำคัญที่ทำให้การเติบโตของ AI เดินหน้าต่อไปได้อย่างยั่งยืน โดยไม่ต้องแลกกับต้นทุนพลังงานที่โลกไม่อาจรองรับได้อีกต่อไป
อ้างอิง: MIT News
ลงทะเบียนเข้าสู่ระบบ เพื่ออ่านบทความฟรีไม่จำกัด