EN CZ DE PL HU SK

Microsoft oznamuje vlastní procesory Arm CPU, akcelerační čipy AI a vlastní racky

Microsoft oznámil dva interně navržené polovodiče – Arm CPU a vyhrazený AI akcelerátor.

Microsoft Azure Cobalt CPU je navržen pro obecné pracovní zatížení se zaměřením na výkon na watt. Microsoft Azure Maia AI Accelerator je optimalizován pro úkoly umělé inteligence a generativní AI.

Společnost uvedla, že čipy začne zavádět do svých datových center začátkem příštího roku, zpočátku pro interní služby, jako je Microsoft Copilot a Azure OpenAI Service. Poté budou zpřístupněny v Microsoft Azure obecněji, ale je nepravděpodobné, že by se prodávaly jednotlivě.

„Microsoft buduje infrastrukturu pro podporu inovací AI a přetváříme každý aspekt našich datových center tak, aby vyhovovaly potřebám našich zákazníků,“ řekl Scott Guthrie, EVP společnosti Microsoft’s Cloud and AI Group.

„V rozsahu, ve kterém působíme, je pro nás důležité optimalizovat a integrovat každou vrstvu infrastruktury, abychom maximalizovali výkon, diverzifikovali náš dodavatelský řetězec a poskytli zákazníkům výběr infrastruktury.“

CPU Azure Cobalt 100 se připojí ke konkurenčnímu čipu Arm Ampere v Microsoft Azure. V současné době se používá pro interní produkty společnosti Microsoft, jako jsou servery Azure SQL a Microsoft Teams. Má 128 jader Neoverse N2 na Armv9 a 12 kanálů DDR5 a je založen na platformě Arm’s Neoverse Genesis CSS (Compute Subsystem).

Pokud jde o Maia, je postaven na 5nm uzlu TSMC a má 105 miliard tranzistorů na monolitické matrici. Společnost uvádí výkon 1 600 Tflops MXInt8 a 3 200 Tflops MXFP4 – což nejlépe konkuruje TPUv5 od Googlu a Trainium od Amazonu.

Má šířku pásma paměti 1,6 TB/s, nad Trainiem, ale pod TPUv5.

Čip bude nasazen v na míru navrženém racku a clusteru známém jako Ares. Servery nejsou standardní 19“ nebo OCP a jsou údajně „mnohem širší“.

Ares bude k dispozici pouze jako kapalinou chlazená konfigurace, která vyžaduje, aby některá datová centra nasadila jednotky CDU typu voda-vzduch.

Microsoft uvedl, že každý rack bude mít „sidekick“, kde je chladicí infrastruktura umístěna na straně systému a cirkuluje kapalina na studené desky.

Každý server obsahuje čtyři akcelerátory Maia s osmi servery na rack.

Microsoft uvedl, že „OpenAI poskytlo zpětnou vazbu k Azure Maia“, což pomůže formovat budoucí návrhy Microsoftu.

„Od prvního partnerství s Microsoftem jsme spolupracovali na společném návrhu infrastruktury AI Azure na každé vrstvě pro naše modely a bezprecedentní potřeby školení,“ řekl Sam Altman, generální ředitel OpenAI.

„Byli jsme nadšeni, když Microsoft poprvé sdílel své návrhy pro čip Maia, a spolupracovali jsme na jeho vylepšení a testování s našimi modely. End-to-end architektura umělé inteligence Azure, nyní optimalizovaná až na křemík s Maia, připravuje cestu pro školení schopnějších modelů a zlevňuje tyto modely pro naše zákazníky.“

Společnost však údajně zvažovala vývoj vlastních čipů kvůli touze po jiném designu čipu – pravděpodobně vyšší šířce pásma paměti, což je klíčové pro školení velkých jazykových modelů.

Microsoft aktuálně vyvíjí druhou generaci obou řad čipů.

Zdroj: datacenterdynamics.com

Zdroj: DATACENTER NETWORK NEWS

Napsat komentář