Sdělovací technika

telekomunikace - elektronika - multimédia


Kompletní seznam článků

Budoucnost datových center

Pavel Vomáčka, Anect

Architektura datových center dospěla k dalšímu milníku designové změny. Ta představuje nejen výrazně rozšířenější využívání servisně orientovaných Public Cloudů, ale i nový design dnes budovaných a modernizovaných datových center, případně serveroven v podnicích a organizacích napříč obory.

Převážná část v současnosti provozovaných infrastruktur jsou stále koncepce zahrnující topologii 3-Tier, topologie LAN (Local Area Network), samostatnou SAN (Storage Area Network) pro centrální disková úložiště a dedikovaný hardware. To vše s vysokým podílem manuální správy v rámci různých týmů. Dále řízení toku datové komunikace a jejího směru probíhá skrze centralizované soustavy firewall a loadbalancer, vně aplikačních sil zastoupených virtualizovanými i fyzickými servery. Změny v komunikaci mezi uživatelem a jeho aplikací, a to včetně šifrování, akcelerace životního cyklu těchto aplikací, vedou architekty řešení pro datová centra k zamyšlení a následným úpravám, současně i k využívání nových technologií a moderních designů.

Jak tedy může taková změna designu datového centra vypadat? Pokud vynecháme Non-IT část datového centra (DC), tedy zajištění dodávky energií a řízení fyzického prostředí s garancí, můžeme jeho IT část shrnout celkem do tří hlavních směrů.

DC as a Code

Rychlost doručování služeb a jejich škálovatelnost jdou v ruku v ruce s optimalizací využívaných zdrojů. A proto první směr představuje softwarově řízené datové centrum. Jeho podstatou je výrazně vyšší nasazení automatizace řízení infrastruktury coby celku, kdy iniciátorem změny bývá požadavek uživatel a jeho aplikace. Tedy vznik, úprava i uvolňování systémových zdrojů, případně reakce na provozní i bezpečnostní událost, která znamená zásah do všech vrstev ICT infrastruktury. Dnes jsou pro tyto účely na trhu různé nástroje, ke kterým patří např. OpenStack, VMware vRealize Suite, Cisco CloudCenter, Ansible a další. Společným jmenovatelem pro všechny je automatické ovládání instalovaných zařízení pomocí API rozhraní a skriptů. Úkolem těchto systémů je zprostředkovanou formou automaticky vytvářet a editovat prostředí aplikací, řídit a chránit jejich komunikaci, včetně samostatné předdefinované reakce na provozně-bezpečnostní události. Do budoucna se do tohoto procesu bude více zapojovat umělá inteligence (AI), v prvním kroku především v bezpečnostní rovině, následovat potom bude prediktivní optimalizace výkonu aplikací. Role člověka v podobě IT specialisty bude kontrolní a eskalační/záchranná.



Software Defined DC

Softwarově definovaná datová centra (SDDC) jsou dnes v podnicích a organizacích na svém začátku a jsou představována spíše instalací hyperkonvergovaných řešení a inženýrských systémů pro databáze. Rok 2017 byl ve znamení adopce takovýchto systémů a řešení a do roku 2021 budou podle IDC tvořit 26,6 % obratu jejich dodavatelů. Jejich nespornou výhodou je využití komoditního hardwaru představovaného procesory X86 a lokálními disky instalovanými do fyzických serverů. Tento kus hardwaru je pak povýšen na hyperkonvergovaný systém instalací běžné serverové virtualizace typu VMware vSphere, Microsoft Hyper-V a KVM rozšířené o softwarově definované úložiště (SDS) ve formě VMware vSAN, Microsoft Storage Space Direct, ale také Cisco HyperFlex a Dell/EMC VxRail atd. Výsledkem je náhrada specializovaného hardwaru pro sítě SAN a sítě centrálních produkčních diskových polí. Nicméně „Software Defined“ nejsou jen tato řešení, ale i jejich kombinace s dalšími komponenty. Mezi ty hlavní patří softwarově řízené sítě (Software Defined Network, SDN) a orchestrace DC jako takového. SDN do moderní infrastruktury patří, a to zejména pro možnost dynamického řízení provozu. V etapě budování prostředí pro aplikaci výrazně urychlují čas doručení zvolením předdefinovaných profilů sítě a automatizovanou instalací požadovaných komponent. Zkrácení času bývá významné, z hodin a dnů zde přecházíme na jednotky minut. Volba konkrétního výrobce technologie SDN se mění od projektu k projektu, ale při jejím výběru musí být do kalkulace zahrnuty stávající i budoucí prostředí, požadované služby, kompatibilita s ostatními prvky v rámci DC a nezávislost pro vlastní budoucí vývoj. Druhou a někdy opomíjenou rovinou využití technologií SDN je bezpečnost, a to zejména z pohledu snadné mikrosegmentace provozu a jeho automatické korekce na základě bezpečnostních incidentů. Pokud propojíme SDN s podporovanými bezpečnostními nástroji, např. Cisco ACI nebo VMware NSX v kombinaci s nástroji Check Point, Trend Micro a jim podobným, jsme pak schopni automaticky reagovat na vzniklé bezpečnostní a provozní incidenty reprezentované (ne)/naplněním bezpečnostního pravidla (Security tag) a účinně bránit zlomyslným útokům, či neautorizovaným přístupům. S ohledem na možnosti dané sítě pak bývají automatizované reakce různé, od ukončení komunikace, přes izolaci, až po smazání infikovaného zdroje (virtuálního serveru). Podobně mohou být na základě identity uživatele řízeny i přístupy k datům a aplikacím podle jejich klasifikace.

Distribuovaný model

Pod pojem distribuovaný systém/řešení je možné vtáhnout cokoliv. Ve smyslu směrování designu datových center je to několik vzájemně propojených cest. První je model „logického DC“, představující propojení vlastního DC a Public Cloud, ve kterém jsou služby instalovány a dále konzumovány podle parametrů prostředí nastavených jednotlivými aplikacemi a službami. O určení vhodného zdroje bude rozhodnuto definicí výkonnostních parametrů a požadavků na garanci služeb, zahrnuté do blueprintu aplikace/prostředí. Volbu si provede uživatel, typicky vývojář aplikace, vlastník projektu, pomocí webového portálu, workflow i API. Realizátorem požadavku pak bude automatizační nástroj napojený na dostupné systémové zdroje.

Druhá cesta představuje již zmíněnou hyperkonvergenci, tedy distribuci výkonu diskového pole napříč celou sestavou a vyrovnání se s výkonovými nároky aplikací na I/O operace a datovou propustnost pole. Parametry pro omezení/garanci IOPS, jakož i faktoru ochrany instalovaného virtuálního serveru budou zapsány ve Storage profilu.

Poslední cesta distribuovaného modelu má více důvodů, tím hlavním je významná změna datových toků ze směru „Sever – Jih“ na „Východ – Západ“, která činí více než polovinu provozu. Velký význam zde hraje serverová virtualizace a „end-2-end“ šifrování. Z tohoto důvodu musí být bezpečnost vtažena do prostředí hypervizoru a postavena mezi jednotlivé virtuální servery. Ve stejném světle je zde i rozvažování zátěže mezi jednotlivé aplikační/databázové servery. Instalace softwarových verzí NG firewallů a balancerů na jednotlivé hosty sestavy dokáže efektivně pokrýt komunikaci „VM-2-VM“ běžících na stejném fyzickém hostu, a tak optimalizovat datový tok, který by pak musel být nasměrován na centrální/zónovou NGFW sestavu.

Ze střednědobého hlediska budou trvalý nedostatek odborných pracovníků, vyšší míra podílu komunikace IoT zařízeními do datového centra a využívání servisně orientovaných „Edge-Public“ Cloudů neodvratitelným hybatelem změn v rámci designu datových center i jejich obsluhy. Je proto vhodné se na ně včas a řádně připravit.

 

 

Autor
Posted in: Články