Studie provedená Cast AI zjistila, že společnosti používají v průměru pouze asi 13 procent CPU, které poskytují, a 20 procent paměti.
Analýza – od společnosti, která poskytuje platformu pro optimalizaci nákladů Kubernetes – je založena na 4 000 clusterech běžících na Amazon Web Services (AWS), Google Cloud Platform a Microsoft Azure mezi 1. lednem a 31. prosincem 2023.
Clustery zahrnuté v sestavě jsou ty s 50 CPU nebo více. Mezi poskytovateli cloudu byl zjištěn malý rozdíl – s AWS a Azure dosahovaly průměrné míry využití 11 procent, i když Google byl o něco lepší se 17 procenty.
Rozdělení využití paměti mezi velké tři cloudové poskytovatele bylo 18 procent pro Google, 20 procent pro AWS a 22 procent pro Azure.
Míra využití se mírně zlepšila u větších clusterů – s těmi, které obsahují 1 000 nebo více CPU, bylo využití v průměru 17 procent.
Cast AI navrhla, že hlavními důvody za tím jsou zákazníci, kteří přidělují více výpočetních zdrojů, než je nutné, a zdráhají se používat „Spot Instances“ kvůli vnímané nestabilitě a nedostatečném využití vlastních velikostí instancí, kde si můžete vybrat poměr CPU a paměti.
„Letošní zpráva jasně ukazuje, že společnosti provozující aplikace na Kubernetes jsou stále v raných fázích svých optimalizačních cest a potýkají se se složitostí manuální správy cloudové nativní infrastruktury,“ řekl Laurent Gil, spoluzakladatel CAST AI.
„Propast mezi poskytnutými a požadovanými CPU se mezi lety 2022 a 2023 prohloubila z 37 na 43 procent, takže problém se bude jen zhoršovat, až bude Kubernetes používat více společností.”
Pro poskytovatele cloudu to sečteno a podtrženo, snižuje potřebu energie a spouštění výpočtů, přičemž je stále vidět, že vydělávají na základě hypotetického využití.
Zvyšuje to však potřebu investovat do více výpočetní techniky a paměti, než je skutečně nutné, přičemž každý prvek IT hardwaru má uhlíkovou stopu prostřednictvím výroby a nasazení. Navíc v případě, kdy podniky převyšují rezervy, ostatní nemají přístup k tomuto výpočetnímu výkonu po dobu trvání kontraktu.
Začátkem tohoto roku výzkum společnosti TechInsights zjistil, že v roce 2023 bylo 878 000 akcelerátorů odpovědných za sedm milionů hodin práce GPU, což představuje odhadované příjmy ve výši 5,8 miliardy dolarů.
Podle TechInsights, pokud by clustery GPU fungovaly blízko kapacity, byly by příjmy mnohem vyšší.
Například clustery UltraScale společnosti AWS se každý skládají z 20 000 GPU Nvidia H100, které si lze pronajmout za 98,32 USD za hodinu za sadu osmi. Úplné využití by samotnému Amazonu přineslo příjmy kolem 6,5 miliardy dolarů.
Cast AI poskytuje automatizační platformu Kubernetes pro velké cloudové organizace a pomocí AI analyzuje a automaticky optimalizuje clustery v reálném čase.
Zdroj: datacenterdynamics.com