Bezkompromisowa hiperkonwergencja? Tylko od HPE

HCI – czyli infrastruktura hiperkonwergentna (Hyperconverged Infrastructure) jest obecna na rynku od kilku lat. Do niedawna wykorzystywana głównie na potrzeby mniejszych projektów i aplikacji pomocniczych, teraz wkracza do świata systemów krytycznych z biznesowego punktu widzenia. Wykonanie tego kroku wymagało podniesienia odporności na awarie, zwiększenia jej wydajności oraz zagwarantowania, że przy większej skali nie utraci nic ze swojej elastyczności – w ten sposób HPE stworzyło zdezagregowaną infrastruktura HCI.

Idea hiperkonwergencji polega na połączeniu w jednym urządzeniu mocy obliczeniowej, pamięci masowej oraz sieci i dostarczeniu klientom zintegrowanych, przetestowanych produktów, które można łączyć w skalowalne klastry oferujące zwirtualizowane pule zasobów. Efekt? Znaczne skrócenie czasu poświęcanego na wdrożenia i ogromne przyspieszenie uruchamiania gotowych rozwiązań, które doskonale nadają się do budowy chmury hybrydowej. Przy tym uproszczone jest zarządzanie a skalowanie odbywa się bez przestojów. Jeśli dołączymy do tego automatyzację, najlepiej wspieraną przez sztuczną inteligencję, mamy rozwiązanie niemal doskonale odpowiadające na współczesne wyzwania firmowego IT oraz bolączki, z jakimi na co dzień zmagają się informatycy.

Pomimo wszystkich oferowanych zalet, infrastruktura HCI ma pewne ograniczenia. Co zrobić jeśli chcemy zwiększyć pojemność pamięci masowej? Dodanie kolejnego węzła oznacza pojawianie się niepotrzebnej nadmiarowości mocy obliczeniowej, co zarazem skutkuje zwykle wzrostem kosztów związanych z licencjonowaniem. Podobnie ma się sytuacja, jeśli wprawdzie pojemność jest wystarczająca, ale brakuje nam wydajności. Z kolei jeśli chcemy zwiększyć moc obliczeniową klastra, dodawanie kolejnych węzłów oznacza pojawienie się nadmiarowej i niewykorzystywanej pamięci masowej. Przecież nie tak miało być. HCI miało rozwiązywać problem a nie je generować.

Dlatego w przypadku rozwiązań typu mission-critical infrastruktura HCI nie była brana pod uwagę. HPE postanowiło rozwiązać ten problem rozdzielając w rozwiązaniu HPE Nimble Storage dHCI pamięć masową od mocy obliczeniowej. Dzięki temu skalowanie – zarówno mocy obliczeniowej jak i pamięci masowej – odbywa się niezależnie, poprzez dodawanie odpowiednio serwerów albo kontrolerów. Równocześnie HPE postanowiło zapewnić w HPE Nimble Storage dHCI niesamowitą wręcz odporność na awarie – nawet jeśli trzy dyski ulegają całkowitej awarii a w innych występują błędy odczytu sektora, dane zachowają pełną integralność. HPE gwarantuje dostępność danych na poziomie sześciu 9-tek. Wszystko to przy zachowaniu rozsądnego stosunku pojemności użytkowej do raw (na poziomie 73%).

M.in. te cechy nowego rozwiązania HPE klasy HCI 2.0 sprawiają, że jest ono unikalne w skali całego rynku. I choć nie brak konkurentów, którzy twierdzą, że oferują podobne rozwiązania HCI, w rzeczywistości ich oferta nie zbliża się nawet do możliwości HPE Nimble Storage dHCI. Nie są to puste słowa. Potwierdzają to analizy analityków DCIG, którzy przygotowali szczegółowy raport porównujący ofertę zdezagrowanego HCI od HPE z konkurencją. Z wynikami tej analizy można – i warto! – zapoznać się tutaj
https://assets.ext.hpe.com/is/content/hpedam/a50002074enw

Jeśli chcecie dowiedzieć się więcej o HCI 2.0 od HPE oraz oferowanych korzyściach, warto zajrzeć do dostępnego bezpłatnie eBooka HCI 2.0 FROM HPE. POWERING THROUGH TO INNOVATION

https://assets.ext.hpe.com/is/content/hpedam/documents/a00105000-5999/a00105146/a00105146enw.pdf