Ústup integrovaných platforem pro AI

Očekává se ústup integrovaných platforem pro AI,“ předpovídá Daniel Riek, Senior Director pro AI Center of Excellence ve společnosti Red Hat. „Zákazníci se s využitím platformy Kubernetes dostanou k nejnovějším a nejlepším přístupům v oboru data science i platformám a procesům podporujícím AI. Standardizace bude vedená projekty jako Kubeflow – a od něj odvozeným projektem Red Hatu Open Data Hub, a Kubernetes se tak stane základem této AI platformy. Toto způsobí, že pro zákazníky bude náročnější vybrat z existujících nabídek, které jsou postaveny na stejných open source nástrojích a liší se pouze uživatelským rozhraním a použitými procesy. Pozornost se tak v architektuře přesune níže k jednotlivým specializovaným komponentám.

Sanjay Arora, Senior Principal Software Engineer v Red Hatu, dodává, že machine learning pro malá data a objemná data se rozdělí na dvě samostatná vlákna. „Většina existujících problémů v tomto odvětví je stále na bázi malých dat. Převažujícími překážkami jsou dostupnost vyčištěných dat, definování problémů a modelů s proveditelnými řešeními, nasazování modelů do produkčního prostředí a sledování výkonnosti modelů – to vše při současném dodržování předpisů, podnikových pravidel a bez nutnosti účasti více různých týmů při nasazování modelu. Pro většinu organizací bude stále výrazným problémem verzování dat a modelů.“

Arora připomíná, že úvodní modely pro hluboké učení vyžadovaly velké objemy dat, aby bylo možné natrénovat a odladit otevřené a veřejné modely. „Pokud se pohybujeme ve výrazně menším měřítku, jsou datové sady pro obrazové i jazykové úkoly realistické a jsou k dispozici v různých knihovnách (např. fasti.ai a spacy). To znamená více datových sad pro analýzu, avšak problémem se stává časová náročnost a vysvětlitelnost výsledků.“ Arora dále předpovídá, že ve většině případů se budou hojně využívat jiné techniky než hluboké učení, například lineární modely, stromové modely, clusterování, analýza časových řad a specializovanější analytické nástroje jako teorie front nebo diskrétní optimalizace. Otázky důvěry a správy budou jednoznačně klíčové pro aplikaci AI v reálném světě. „Patrně uvidíme nárůst snah o regulaci AI, stejně jako dalších technologií pro správu důvěry modelů,“ pokračuje Arora a dodává, že trh zaplaví specializovaný hardware, určený pro řešení potřeb v oblasti efektivity napájení a výkonu, obzvláště pak pro využití při inferenci.

Více pozornosti získají oblasti AI Ops / AI Dev (Sec) Ops. „AI se začíná prosazovat ve správě IT systémů a Dev(Sec)Ops a patrně přitáhne významné investice,“ říká Daniel Riek, Senior Director pro AI Center of Excellence v Red Hatu, a upozorňuje, že zavedení dodavatelé platforem do této oblasti výrazně investují a budou se zaměřovat na tvorbu autonomního hybridního cloudu. „Ústředním bodem autonomního hybridního cloudu se stane platforma Kubernetes, jelikož poskytuje požadované možnosti standardizace a automatizace, především ve spojení s konceptem Kubernetes Operators. Pro zákazníky to znamená vyšší spolehlivost, kvalitu a škálovatelnost v produkčním prostředí i v procesu DevOps,“ dodává Riek.

Tokenizace v blockchainu

Tokenizace, tedy reprezentace digitální i nedigitální hodnoty v podobě tokenů v blockchainu, kde je možné s nimi dále obchodovat a vyměňovat, bude podle Axela Simona, Senior Software Engineera v Red Hatu, i nadále povzbuzovat snahy o posílení volného trhu a získá štědré investice, jelikož se aktuálně těší velkému zájmu finančního sektoru.

Poroste i zájem o digitální měny centrálních bank. „Není překvapivé, že po oznámení plánované kryptoměny Facebooku s názvem Libra došlo k oživení zájmu o kryptoměny i ke vzniku obav ze strany různých vlád,“ říká Simon a dodává, že „kombinace těchto dvou faktorů vhání vítr do plachet kryptoměn centrálních bank, o nichž mnoho z nich v posledních letech uvažuje. Někteří vnímají „fedcoiny“ (či digitální měnu s nuceným oběhem, fiat) jako další logický krok v rámci státem krytých měn, další je chápou jako naléhavý a nezbytný krok.“

Přijde i spolupráce soukromých, uzavřených blockchainů s těmi veřejnými, otevřenými. Simon upozorňuje, že „jestli panuje ve sféře blockchainu nějaká shoda, tak na faktu, že nepřijde jeden blockchain, jenž by vládl všem. Na základě toho lze říci, že je zde výrazný zájem zabránit vzniku uzavřených nekomunikujících skupin a zajistit, že různé blockchainy mohou interagovat, a tento zájem bude sílit s dozráváním projektů jako Polkadot nebo Cosmos.“ Simon shledává zajímavou i skutečnost, že otevřená povaha blockchainového ekosystému v otázce kódu i kultury představuje významný faktor, jenž umožňuje uvedené interoperabilní fungování a predikuje, že toto vše připravuje cestu pro budoucnost, kdy bude existovat spousta veřejných i soukromých blockchainů a budou si spolu vyměňovat hodnotu v tzv. internetu hodnoty (Internet of Value).

Blockchainy jako kotevní vrstva

Když lidé uvažují o blockchainech, často je vnímají jako řešení určitého problému, nikoli jako možnost celkového řešení. „V budoucnosti budeme svědky nárůstu projektů využívajících blockchain jako vrstvu ve svém řešení, častokrát jako kotevní vrstvu, kterou mohou ostatní prvky využívat k budování důvěry, jak již dokládají projekty prosamosprávu vlastní identity jako například Sovrin založený na systému Hyperledger Indy. Další oblasti, v nichž se jako součást řešení patrně blockchain uplatní, jsou Internet věcí a umělá inteligence,“ říká Simon.

Po vrcholu mediální popularity blockchainu v minulém roce se pozornost přesunula ke zprostředkování skutečných řešení. „Často to znamená používat blockchain spíše jako nástroj, vrstvu v určitém řešení, než jako řešení samotné. Rovněž to znamená sledovat, jaké konkrétní silné stránky blockchainy mají, a využívat je: použití tokenů a související ekonomiky, revize kryptoměn a toho, co umožňují z pohledu státu, a přenos hodnoty v síti heterogenních účastníků,“ říká Simon.

Technologie Edge Computingu, tedy zpracování dat „na okraji“ se stává stále populárnější. Podle Franka Zdarskeho, Principal Software Engineera v Red Hatu, budou veřejní poskytovatelé pokračovat v expanzi mimo cloud. „Tři nejvýznamnější poskytovatelé veřejného cloudu (Amazon, Azure, Google) již nabízejí lokální komponenty pro služby, koncové brány a dokonce platformy mikrokontrolérových koncových zařízení, což ve všech případech slouží k podpoře směřování zákaznických dat do PaaS (Platform-as-a-Service, Platforma jako služba) řešení těchto poskytovatelů. Mnoho veřejných cloudových služeb bude zmenšeno tak, aby fungovaly na těchto koncových platformách s cílem zajistit, že rostoucí počet zákazníků zůstane závislý na těchto atraktivních, avšak uzavřených a drahých platformách,“ předpovídá Zdarsky.

Stejně tak se firemní řešení Edge Computingu dočkají přesnější definice a hojně se budou přesouvat do produkce, upozorňuje Jered Floyd, člen týmu CTO v Red Hatu: „Koncová nasazení byla definována především na základě jednotlivých případů použití, spíše než s využitím konzistentní technické architektury. To omezilo rozšíření edge computingu, jelikož každá implementace musí řešit problémy distribuovaného výpočtu podle sebe. Dodavatelé podnikových platforem zaměřených na datová centra stanoví malý počet konzistentních technických architektur pro edge computing a dodají platformy a vývojářské nástroje, které zákazníkům urychlí cestu k zisku při zavádění nových služeb edge computingu a zpřístupní jim širší ekosystém inovativních služeb, při současném zachování kontroly nad firemní infrastrukturou a procesy.“

5G pro inovace

Na skutečnost, že zprovozňování 5G sítí ještě více podpoří inovaci v koncových zařízeních pro telekomunikace a firmy, upozorňuje Frank Zdarsky: „Architektury 5G sítí vytvářejí aplikační příležitosti i výzvy týkající se infrastruktury. Nižší latence, vyšší šířka pásma, vyšší hustota zařízení a zvýšená spolehlivost společně vytváří poptávku po vícevrstvých distribuovaných aplikačních architekturách – například intenzivní datová analýza na koncovém zařízení zasílající anomální data do připojené cloudové služby k dalšímu zpracování, nebo autonomní činnost koordinovaná zařízením a kontejnerizovanými aplikačními komponentami v připojené základové stanici“ a dodává, že současně „nové (a rychle se rozrůstající) možnosti síťových aplikací 5G vyžadují vyšší flexibilitu a pružnost mobilních operátorů, což vede k přechodu od virtuálních síťových funkcí (VNF) ke kontejnerovým síťovým funkcím (CNF) s cílem nabízet nové služby s možností snadného nasazení.“

Podle Zdarskeho se poskytovatelé telekomunikačních služeb rozdělí na základě strategií zavádění mobilního edge computingu: „Jedna skupina poskytovatelů telekomunikačních služeb naváže partnerství s jedním ze tří zmíněných gigantů, aby ve svém mobilním systému edge computingu co nejrychleji využila technologické možnosti a služby daného poskytovatele veřejného cloudu. Cenou za toto rozhodnutí bude ze strany poskytovatele telekomunikačních služeb v zásadě odevzdání klíče k cenným lokalizačním aktivům danému poskytovateli cloudu a omezení prostoru pro poskytovatele telekomunikačních služeb v hodnotovém řetězci a v kontaktu se zákazníkem. Další skupina si bude chtít udržet kontrolu nad svými aktivy a získat přístup k širšímu ekosystému služeb a jejich vývojářům, s cílem vyvinout vlastní platformu pro mobilní edge computing. To však vyžaduje, aby daní poskytovatelé spojili síly a dohodli se na způsobu spolupráce mezi svými mobilními platformami pro edge computing, aby bylo možné maximalizovat počet zákazníků pro vývojáře inovativních a atraktivních služeb edge computingu.“

Vyšší konzistence aplikační architektury IoT

IoT aplikace pro podnikové nasazení se budou více zaměřovat na jednotlivé komponenty, míní Jered Floyd: „Navzdory standardizaci protokolu pro komunikaci s komponentami IoT, snímači a aktuátory, stále existuje málo standardizace na úrovni aplikační architektury. Používají se běžné vývojářské nástroje, ale architektura jednotlivých případů implementace IoT zůstává i dnes překvapivě unikátní. Na základě standardizace open source komponent se v roce 2020 objeví vyšší konzistence aplikační architektury IoT, od cloudu přes koncové brány až po zařízení.“

Internet of Things na kolech

Nejvyšší nárůst využívání IoT podle Floyda zaznamená automobilový průmysl. „Dodavatelé automobilů zažívají rapidní zrychlování opožděné digitální transformace a uvědomují si, že hlavní přidaná hodnota, kterou mohou nabídnout, spočívá v informační infrastruktuře spojující automobil a cloud, nikoli pouze ve výrobě motorů a dalších mechanických součástí. Namísto nasazování tuctů nezávislých subsytémů řízených mikrokontrolérem konverguje tato funkcionalita k jednomu vysoce výkonnému vestavěnému systému trvale připojenému do cloudu. Tento „Internet of Things na kolech“ již existuje v nejvyšší vrstvě trhu, ale v roce 2020 se rozšíří hlouběji a způsobí nejvyšší míru šíření IoT s nejvyšším objemem dat.“

Floyd se dále domnívá, že podnikový (nebo průmyslový) IoT bude jasněji vnímán jednoduše jako případ užití edge computingu. „Nakládání s koncovými zařízeními jako nezávislými jednotkami bude z pohledu bezpečnosti a údržby stále méně udržitelné, jelikož i nejmenší zařízení je nyní schopno provozovat plnohodnotný operační systém jako je Linux. Tyto miliardy zařízení IoT představují doslova masivní distribuovaný počítač a rychle se přizpůsobí komplexním koncovým architekturám od dodavatelů cloudových služeb nebo podnikových softwarových řešení. Rozpor mezi přístupem spravované služby a vlastní platformy bude bod největšího střetu v oblasti IoT a edge computingu v následujících třech letech.“

Hardwarové inovace

Jelikož Dennardovo škálování se blíží ke konci, již nebude možné řešit výpočetní problémy pouhým zvyšováním taktovací frekvence a paralelismu, upozorňuje Hugh Brock, Research Director ve společnosti Red Hat: „V roce 2020 dojde k výraznému nárůstu zájmu o heterogenní hardware, rekonfigurovatelná hardwarová programovatelná hradlová pole (FPGA), akcelerátory a vlastní zákaznické integrované obvody (ASIC). Začne se objevovat nový model programování a nasazení, jenž přijímá fakt, že výpočetní zdroje budou heterogenní a že hardware, podobně jako dnes software, bude možné upravovat a měnit. Open source nástroje a procesy budou získávat na významu, neboť tyto nástroje se rozvíjí, zatímco proprietární řešení – podobně jako proprietární kompilátory v 90. letech 20. st. – za inovacemi zaostávají.“ Podle Brocka jsme na prahu výrazného posunu hranice mezi softwarem a hardwarem a open source bude hrát v proměnách hardwaru mnohem větší roli než v minulých letech.

Třesk na trhu HPC

Ohromný růst v oblasti HPC zaznamená podle Jereda Floyda platforma Arm, přičemž ani RISC-V nebude zaostávat: „Standardizace platformy Arm prostřednictvím organizací jako Linaro konečně zajistila, že „navrhování Arm serverů je nuda“. Opakovatelné a podporovatelné činnosti spolu s efektivitou a flexibilitou výsledných platforem tak způsobí nebývalý vzestup platformy Arm na trhu HPC. Příslib architektury RISC-V bez problematických vazeb podpoří rychlý zájem o tuto platformu, která půjde ve šlépějích platformy Arm – patrně nikoli hned v roce 2020, ale brzy poté.“

Růst vlivu open source SW projektů

Podle Leslie Hawthorn, programové manažerky technického programu open source v Red Hatu, lze očekávat nárůst a rozšiřování vlivu softwarových projektů typu open source: „Jen na službě GitHub je nyní 2,4 miliónu projektů, které mají open source softwarovou licenci. To představuje velký počet nových myšlenek, které jsou přiváděny na svět způsobem, jenž oproti proprietárním alternativám usnadňuje jejich nalezení a spolupráci při jejich dalším rozvoji,“ upozorňuje Hawthorn.

Poroste i diverzita v oblasti open source projektů, na což upozorňuje Steve Watt, hlavní architekt pro nové technologie v Red Hatu: „Nové nápady přicházejí z netradičních míst. Například v roce 2019 zaznamenaly největší nárůst celkového počtu open source projektů vytvořených ve službě GitHub země jako Nigérie, Írán a Keňa. Hongkong, Singapur a Japonsko pak dosáhly největšího nárůstu počtu přispěvatelů do open source softwaru. Očekáváme, že se v blízké budoucnosti objeví více společností financovaných rizikovým kapitálem zaměřených na open source (nebo novějších společností vstupujících na trh), které budou hledat právní strategie, jak řešit nekontrolované užívání open source projektů provozovateli cloudů.“

Watt dále předpovídá, že se bude zvyšovat počet mladých společností vyvíjejících open source projekty, které budou používat agresivní strategie na ochranu duševního vlastnictví, aby posílily svoji pozici jako vlastníků softwaru, který ve skutečnosti sami vytvořili a dodává, že „v nadcházejícím roce budeme patrně svědky situace, kdy bude stále více open source vývojářů intenzivně chránit to, co pokládají za své právo inovovat podle svého vlastního přesvědčení.“

Nové výzvy v bezpečnosti

Organizace začínají hledat způsoby, jak nasazovat více úloh do veřejného cloudu a více tak využívat strategii otevřeného hybridního cloudu, potvrzuje zkušenosti zákazníků Mike Bursell, hlavní bezpečnostní architekt Red Hatu: „V současnosti způsobují právní předpisy, normy a osvědčené postupy mnoha organizacím starosti se spouštěním citlivých úloh mimo vlastní prostředí. Důvodem obav je, že nepovolaná osoba nebo kompromitovaný server mohou získat přístup a narušit cokoliv – od konfigurace firewallu přes výplatní pásky, od zdravotních údajů po podrobnosti o kreditních kartách.“ Bursell dále upozorňuje, že některé úlohy jsou tak citlivé, že je nelze bezpečně provozovat ani na standardních lokálních strojích, ale vyžadují další softwarové a hardwarové regulace. Současná řešení totiž poskytují šifrování pro nečinná data (v úložišti) i přenášená data (v síti), ale nikoli pro používaná data (v průběhu jejich aktivního zpracování). Kromě toho některé úlohy používají algoritmy, které jsou samy o sobě citlivé – mmj. do této kategorie spadá mnoho aplikací pro umělou inteligenci a strojové učení, a ty je třeba také chránit. „Až donedávna existovalo jen velmi málo možností nad rámec hardwarových bezpečnostních modulů (HSM), které jsou nákladné a těžko se používají. HSM sice umožňují chránit konkrétní operace – obvykle šifrování – s vysokým stupněm zabezpečení, ale kromě zmíněné nákladnosti a obtížného používání nemohou tyto moduly ani škálovat. Pro organizace se zvyšujícím se počtem citlivých aplikací, které zpracovávají rychle rostoucí objemy citlivých dat, tedy nebyly a nejsou moduly HSM odpovědí,“ konstatuje Bursell a doplňuje, že v reakci na tyto úvahy přišli výrobci čipů u některých procesorů s novou funkcí s názvem TEE (důvěryhodné spouštěcí prostředí, Trusted Execution Environment).

Technologie skrytá za TEE nabízí možnosti ochránit úlohy před softwarem a operačním systémem v zařízení, na němž úlohy běží. Nejznámějšími příklady jsou SGX od společnosti Intel a SEV od společnosti AMD. Tyto technologie nabízejí možnost spouštět citlivé aplikace na mnohem větším počtu míst napříč otevřeným hybridním cloudem. Přestože jsou obě celkem nové, IT odvětví si jich začíná všímat. S ohledem na to, že jsou tyto snahy nové a hardware s podporou TEE se zatím moc nenasazuje ani se nepoužívá snadno, vznikla nová oborová skupina s názvem Confidential Computing Consortium, která má usnadnit zapojení, diskusi a spolupráci v této oblasti. Do skupiny se již zapojila řada firem z celé branže, včetně společnosti Red Hat, a již existují první projekty jako Enarx (https://enarx.io), které mají za cíl zjednodušit nasazení aplikací do prostředí TEE.

Citlivé aplikace nejsou ve veřejném cloudu dostatečně chráněné a používaná data jsou vystavena výraznému riziku ze strany nepovolaných osob nebo napadeného softwaru,“ říká Bursell a dodává, že „prostředí TEE nabízí nový způsob, jak tento problém vyřešit. Celé odvětví chce zjistit, jak nejlépe aplikace nasazovat s ještě větším využitím strategií otevřeného hybridního cloudu.“

Serverless vývoj

Koncept Serverless nabízí zjednodušenou vývojářskou zkušenost, která se stane funkcí platformy,“ říká William Markito Oliveria, Senior Manager pro Product Management v Red Hatu a předpovídá, že „více poskytovatelů platformy jako služby začlení rysy Serverless vývoje do denních činností, které vývojáři provádějí při tvorbě nativních cloudových aplikací, a stane se z nich výchozí paradigma pro výpočty v cloudu.“

Podle Oliviery se budou firmy, které přechází do cloudu a chtějí přeškolit současný personál na nové technologie, dívat na Serverless řešení jako na způsob, jak se vyhnout složitým konceptům a zajistit rychlejší zaučení. „Datoví vědci si Serverless přístup oblíbí, protože tyto platformy mohou optimalizovat výkon a řešit složité výzvy s umístěním spouštěného kódu pomocí zjednodušeného modelu, který umožňuje uživatelům zaměřit se na diferenciaci firmy nebo modelování, či abstrahovaní infrastruktury,“ predikuje Oliviera.