Skalowanie SAP HANA bez ograniczeń dzięki technologiom HPE i Intel®

Współpraca między HPE a Intel® znowu zaowocowała przełomowym osiągnięciem: nowym wydajnościowym rekordem świata w benchmarku SAP Business Warehouse (BW) Edition for SAP HANA. Kto jest rekordzistą? HPE Superdome Flex wyposażony w 16 skalowalnych procesorów Intel® Xeon® Platinum 8280L, 12TB pamięci DRAM i 12TB pamięci HPE Persistent Memory w kościach 128 GB DIMM wykorzystujących technologię Intel® Optane.

Na marginesie warto dodać, że niezależnie od konfiguracji pamięci systemy Intel® w benchmarkach SAP HANA osiągają znacznie lepsze wyniki niż inne systemy. Nie dziwi więc dlaczego – jak podaje Gartner – 90% serwerów napędzających SAP HANA to maszyny z procesorami Intel®.

Wracając jednak do wyników tego testu, to co widać na pierwszy rzut oka to, że w przypadku bardzo dużych środowisk SAP HANA można skalować pojemność pamięci przy użyciu pamięci trwałej w połączeniu z DRAM. W sumie nie ma w tym nic dziwnego – SAP HANA została zoptymalizowana z myślą o zastosowaniu pamięci trwałej. Równie ważne jest jednak to, że dowodzi to jednocześnie, że bardzo duże hurtownie danych mogą pracować szybciej jeśli dysponują większą mocą obliczeniową.

Warto przy tym zauważyć, że choć system w 100% oparty na pamięci DRAM jest szybszy, to w związku z tym, że nie jest to pamięć trwała, w przypadku restartu systemu trzeba czekać blisko godzinę (w przypadku dużych baz danych) na załadowanie danych z pamięci masowej zanim uzyskamy dostęp do SAP HANA. Jak wiadomo restarty nie należą do rzadkości. W przypadku zastosowania pamięci trwałej czas restartu skraca się do minut.

Na wykorzystaniu pamięci trwałej korzystają także systemy wykorzystywane na potrzeby disaster recovery. W związku z tym, że są ona rzadko potrzebne, firmy często uruchamiają na nich inne niekrytyczne aplikacje. Kiedy jednak dochodzi do katastrofy, a korzystamy z pamięci trwałej, czas uruchomienia awaryjnego SAP HANA będzie krótszy.

Podsumowując, choć pamięć trwała pozwala na uruchamianie większy az danych na systemach z mniejszą liczba procesorów, to jeśli chcemy uzyskać większą wydajność, trzeba skalować również moc obliczeniową.