
Microsoft เปิดตัวชิป Maia 200 ลดต้นทุน AI 30% พร้อมใช้ใน Azure ก้าวสู่การเป็นผู้เล่นสำคัญในตลาดชิป AI ด้วยการเปิดตัว Maia 200 ชิปเร่งความเร็ว AI ที่พัฒนาขึ้นเองสำหรับงานอินเฟอเรนซ์ พร้อมนำไปใช้งานจริงในโครงสร้างพื้นฐานคลาวด์ Azure ทั่วโลกแล้ว เพื่อลดการพึ่งพาซัพพลายเออร์ภายนอกและเพิ่มความสามารถในการแข่งขันกับคู่แข่งอย่าง Google และ Amazon
ชิปรุ่นใหม่นี้ผลิตด้วยเทคโนโลยี 3 นาโนเมตรจาก TSMC มาพร้อมทรานซิสเตอร์กว่า 1 แสนล้านตัว สามารถประมวลผลได้มากกว่า 10 PetaFLOPS ในโหมด 4-bit ตอบโจทย์การรันโมเดล AI ขนาดใหญ่ที่กำลังเติบโตอย่างรวดเร็ว จุดเด่นหลักคือการลดต้นทุนการดำเนินงานลงถึง 30% เมื่อเทียบกับระบบเดิม ขณะที่ยังคงประสิทธิภาพการประมวลผลไว้ในระดับสูง
Microsoft Maia 200 มาพร้อมระบบหน่วยความจำ HBM3e ขนาด 216GB ที่ความเร็ว 7 TB/s ซึ่งช่วยแก้ปัญหาคอขวดในการส่งข้อมูลที่เป็นข้อจำกัดสำคัญของระบบ AI รุ่นเก่า นอกจากนี้ยังรองรับการขยายงานในคลัสเตอร์ได้ถึง 6,144 ตัว เหมาะสำหรับดาต้าเซ็นเตอร์ขนาดใหญ่ที่ต้องการประหยัดพลังงานและพื้นที่
ในเชิงกลยุทธ์ ไมโครซอฟท์เริ่มใช้ชิปนี้ในโปรเจกต์สำคัญอย่าง Microsoft Superintelligence เพื่อพัฒนาโมเดล AI ภายในองค์กร รวมถึงขับเคลื่อนบริการ Microsoft 365 Copilot ที่มีผู้ใช้งานหลายล้านคนทั่วโลก การควบคุมซิลิคอนเองช่วยให้บริษัทปรับปรุงบริการได้เร็วขึ้นและลดความเสี่ยงจากห่วงโซ่อุปทาน
ไมโครซอฟท์ยังเปิดโอกาสให้นักพัฒนาและนักวิจัยลงทะเบียนทดลองใช้ Maia SDK เพื่อสร้างระบบนิเวศน์รอบชิปตัวนี้ ประกอบด้วยเครื่องมือสำคัญอย่าง Triton Compiler และ PyTorch ที่ช่วยให้การพัฒนา AI บน Azure ทำได้ง่ายและมีประสิทธิภาพมากขึ้น ซึ่งอาจเป็นปัจจัยดึงดูดให้ลูกค้าเลือกใช้บริการคลาวด์ของไมโครซอฟท์แทนคู่แข่ง
ติดตามข้อมูลข่าวสารน่าสนใจได้ทาง www.zanzab.com และช่องทางโซเชียล
Facebook , YouTube , Instagram และ Tiktok






