Co bude dál ve světě edge computingu? Odborníci zkoumají šest hlavních otázek, kterým budou muset šéfové IT porozumět a řešit je. Gordon Haff, technologický evangelista ve společnosti Red Hat, se na tyto klíčové trendy edge computingu, které byste měli sledovat, blíže podíval.
Ačkoli mnoho aspektů edge computingu není nových, jeho celkový obraz se stále rychle vyvíjí. Výraz „edge computing“ zahrnuje například i distribuované systémy poboček maloobchodních prodejen, které existují již desítky let. Tento termín pohltil také nejrůznější lokální výpočetní systémy v továrnách a u poskytovatelů telekomunikačních služeb, i když v propojenější a méně proprietární podobě, než bylo v minulosti obvyklé.
Ale i když v některých nasazeních edge computingu vidíme ozvěny starších architektur, sledujeme také rozvíjející se trendy, které jsou skutečně nové nebo alespoň zcela odlišné od toho, co existovalo dříve. Navíc pomáhají šéfům IT i celých firem řešit problémy v různých odvětvích, od telekomunikací po automobilový průmysl, protože se množí data ze senzorů i data pro strojové učení.
Trendy edge computingu, které byste měli sledovat
Odborníci na edge computing odhalili šest trendů, na které by se měli šéfové IT a firem v roce 2022 zaměřit:
1. Zatížení okrajů sítě se zvyšuje
Jednou z velkých změn, které pozorujeme, je, že se na okrajích sítí nachází stále více výpočetní techniky a úložišť. Decentralizované systémy často existovaly spíše proto, aby snížily závislost na síťových linkách, než aby prováděly úlohy, které by prakticky nemohly být řešeny v centrální lokalitě za předpokladu přiměřeně spolehlivé komunikace. Ale to se mění.
Internet věcí téměř už ze své definice vždy zahrnoval přinejmenším sběr dat. Avšak to, co mohlo být pramínkem, se nyní změnilo v záplavu, protože data potřebná pro aplikace strojového učení přicházejí z velkého množství senzorů. Ale i když se tréninkové modely často vyvíjejí v centralizovaném datovém centru, průběžná aplikace těchto modelů se obvykle přesouvá na okraj sítě. To omezuje nároky na šířku pásma sítě a umožňuje rychlou lokální akci, například vypnutí stroje v reakci na anomální údaje ze senzorů. Cílem je poskytovat přehled a přijímat opatření v okamžiku, kdy jsou potřeba.
2. Prosazuje se RISC-V
Úlohy, které jsou náročné jak na data, tak na výpočetní výkon, samozřejmě potřebují hardware, na kterém mohou běžet. Specifika se liší v závislosti na aplikaci a požadovaných kompromisech mezi výkonem, spotřebou, náklady atd. Běžně přitom obvykle vybíráme buď z řešení na míru, nebo ze zařízení s architekturou ARM či x86. Žádné z takových řešení není plně otevřené, ačkoli u architektur ARM a x86 se postupem času vytvořil rozsáhlý ekosystém podpůrného hardwaru a softwaru, který je z velké části řízen hlavními návrháři procesorových komponent.
RISC-V je ale nová a zajímavá otevřená architektura instrukční sady, založená na hardwaru. Proč zajímavá? Yan Fisher, globální evangelista pro nové technologie ve společnosti Red Hat to vysvětluje takto: „Jedinečným aspektem architektury RISC-V je, že proces jejího návrhu i specifikace jsou skutečně otevřené. Návrh odráží rozhodnutí komunity, založená na kolektivních zkušenostech a výzkumu.“
Tento otevřený přístup a s ním spojený aktivní ekosystém již pomáhá k vítězstvím designu RISC-V v širokém spektru průmyslových odvětví. Calista Redmondová, generální ředitelka společnosti RISC-V International, poznamenává, že: „S přechodem na edge computing jsme svědky masivních investic do RISC-V napříč ekosystémem, od nadnárodních společností jako Alibaba, Andes Technology a NXP až po startupy jako SiFive, Esperanto Technologies a GreenWaves Technologies, které navrhují inovativní řešení RISC-V pro edge-AI.“
3. Virtuální rádiové přístupové sítě (vRAN) jsou stále důležitějším případem využití edge computingu
Rádiová přístupová síť je zodpovědná za povolení a připojení zařízení, jako jsou chytré telefony nebo zařízení internetu věcí (IoT), k mobilní síti. V rámci nasazení 5G přecházejí operátoři na flexibilnější přístup vRAN (Virtual Radio Access Networks), kdy jsou logické komponenty RAN na vysoké úrovni rozděleny oddělením hardwaru a softwaru, a také využívají cloudové technologie pro automatizované nasazení a škálování a umístění úloh.
Hanen Garcia, Red Hat Telco Solutions Manager, a Ishu Verma, Red Hat Emerging Technology Evangelist, poznamenávají, že jedna: „studie ukazuje, že nasazení řešení virtuální RAN (vRAN)/Open RAN (oRAN) přináší až 44% úsporu nákladů na vlastnictví sítě, ve srovnání s tradičními distribuovanými/centralizovanými konfiguracemi RAN.“ A dodávají, že: „prostřednictvím této modernizace mohou poskytovatelé komunikačních služeb (CSP) zjednodušit provoz sítě a zvýšit flexibilitu, dostupnost i efektivitu – to vše při obsluze stále většího množství nasazení. Nativně cloudová a na kontejnerech založená řešení RAN přinášejí nižší náklady, snadnější modernizaci a úpravy, možnost horizontálního škálování a menší vázanost na dodavatele než proprietární řešení nebo řešení založená na virtuálních počítačích.“
4. Škálování je hnací silou provozních přístupů
Mnoho aspektů architektury edge computingu se může lišit od architektury implementované výhradně za zdmi datového centra. Zařízení a počítače mohou mít slabé fyzické zabezpečení a na místě nemusí být žádný IT personál. Síťové připojení může být nespolehlivé. Dobrá šířka pásma a nízké latence nejsou samozřejmostí. Mnohé z nejpalčivějších problémů však souvisejí s rozsahem – koncových bodů sítě totiž mohou být tisíce (nebo i více).
Kris Murphy, Senior Principal Software Engineer ve společnosti Red Hat, uvádí čtyři základní kroky, které je třeba učinit, abyste se s problémem rozsahu vypořádali: „Nemilosrdně standardizovat, minimalizovat ‚provozní plochu‘, kdykoli je to možné upřednostnit stahování dat před jejich odesíláním a automatizovat drobnosti.“
Doporučuje například provádět transakční, tedy tzv. atomické aktualizace, aby se nemohlo stát, že systém skončí aktualizovaný jen částečně, a tedy v chybně definovaném stavu. Při aktualizacích je podle ní také vhodné, aby koncové body aktualizace stahovaly, protože „je pravděpodobnější, že bude k dispozici výstupní konektivita“. Je třeba také dbát na omezení špičkového zatížení tím, že se všechny aktualizace nebudou provádět současně.
5. Edge computing potřebuje atestaci
Vzhledem k omezeným zdrojům na okraji sítě jsou pragmatickými možnostmi, které je třeba zvážit, funkce, které vyžadují málo nebo žádné místní zdroje. Navíc opět platí, že jakýkoli přístup musí být vysoce škálovatelný, jinak budou jeho využití a přínosy velmi omezené. Jednou z možností, která vyniká, je projekt Keylime. „Měli bychom zvážit široké nasazení technologií jako Keylime, které ve velkém měřítku dokáží ověřit, že se výpočetní zařízení spouštějí a zůstávají v důvěryhodném provozním stavu, zejména v prostředích s omezenými zdroji,“ popisuje Ben Fischer, Red Hat Emerging Technology Evangelist.
Keylime zajišťuje vzdálené spouštění a ověřování běhu pomocí architektury IMA (Integrity Measurement Architecture) a využívá moduly TPM (Trusted Platform Module), které jsou běžné na většině základních desek notebooků, stolních počítačů a serverů. Pokud není k dispozici žádný hardwarový TPM, lze nahrát virtuální nebo vTPM, který poskytuje požadovanou funkci TPM. Atestace spouštění a běhu je prostředkem k ověření, zda se zařízení na okraji sítě spouští do známého důvěryhodného stavu a zda si tento stav udržuje i za běhu. Jinými slovy, pokud by došlo k něčemu neočekávanému, například ke spuštění podvodného procesu, očekávaný stav by se změnil, což by se projevilo v měření a vyřadilo by to zařízení z provozu, protože by se dostalo do nedůvěryhodného stavu. Toto zařízení by pak bylo možné prozkoumat, opravit a znovu uvést do provozu v důvěryhodném stavu.
6. Na okrajích sítě nabývají na významu důvěrné výpočetní operace
Zabezpečení na okrajích sítě vyžaduje zásadní přípravu. Dostupnost zdrojů, jako je síťové připojení, elektřina, personál, vybavení a funkce, se značně liší, ale je mnohem menší než v datovém centru. Tyto omezené zdroje limitují možnosti zajištění dostupnosti a zabezpečení. Kromě šifrování místního úložiště a připojení k centralizovanějším systémům nabízejí důvěrné výpočetní operace (confidental computing) možnost šifrovat data v době, kdy jsou používána zařízeními edge computingu.
To chrání jak zpracovávaná data, tak software, který data zpracovává, před odposlechem nebo manipulací. Fischer tvrdí, že „confidental computing na zařízeních edge computingu se stane základní bezpečnostní technologií pro výpočetní operace na okraji sítě, a to z důvodu omezených zdrojů na okraji sítě“.
Podle zprávy Confidential Computing Consortium (CCC) od Everest Group (Confidential Computing – Další hranice v zabezpečení dat) „důvěrné výpočetní operace v distribuované okrajové síti mohou také pomoci realizovat novou efektivitu bez dopadu na data nebo soukromí, když vytvoří bezpečný základ pro škálování datové analýzy na okraji sítě bez ohrožení zabezpečení dat“. Confidental computing navíc „zajišťuje, že zařízení edge computingu a IOT budou vykonávat pouze autorizované příkazy a kód. Použití důvěrných výpočetních operací na zařízeních IOT a edge computingu i na back-endu pomáhá kontrolovat kritickou infrastrukturu tím, že zabraňuje manipulaci s kódem dat, která jsou komunikována napříč rozhraními.“
Aplikace confidental computingu na okraji sítě sahají od autonomních vozidel až po shromažďování citlivých informací.
Různorodé aplikace napříč odvětvími
Různorodost těchto trendů edge computingu odráží rozmanitost i rozsah úloh na okrajích sítě. Existují ale některá společná témata jako více fyzických zařízení, využívání nativně cloudových a kontejnerových technologií nebo rostoucí využívání strojového učení. Telekomunikační aplikace mají ale často jen málo společného s průmyslovými případy použití IoT, které se zase liší od těch v automobilovém průmyslu. Ať se ale podíváte na jakékoliv odvětví, všude najdete zajímavé věci, které se budou v roce 2022 v edge computingu odehrávat.
TZ
Zdroj: CLOUD & BACKUP NETWORK NEWS