Wybieranie dysków dla klastrów azure Stack HCI i Windows Server
Dotyczy: Azure Stack HCI, wersje 22H2 i 21H2; Windows Server 2022, Windows Server 2019
Ważne
Usługa Azure Stack HCI jest teraz częścią usługi Azure Local. Trwa zmiana nazwy dokumentacji produktu. Jednak starsze wersje rozwiązania Azure Stack HCI, na przykład 22H2 będą nadal odwoływać się do rozwiązania Azure Stack HCI i nie będą odzwierciedlać zmiany nazwy. Dowiedz się więcej.
Ten artykuł zawiera wskazówki dotyczące sposobu wybierania dysków w celu spełnienia wymagań dotyczących wydajności i pojemności.
Typy dysków
Miejsca do magazynowania Direct podstawowa technologia wirtualizacji magazynu, która stoi za rozwiązaniem Azure Stack HCI i Windows Server, obecnie współpracuje z czterema typami dysków:
Typ dysku | opis |
---|---|
PMem odnosi się do pamięci trwałej, nowego typu magazynu o małych opóźnieniach i wysokiej wydajności. | |
NvMe (Non-Volatile Memory Express) odnosi się do dysków półprzewodnikowych, które znajdują się bezpośrednio w magistrali PCIe. Typowe czynniki form to 2,5" U.2, PCIe Add-In-Card (AIC) i M.2. NvMe oferuje większą przepływność operacji we/wy i operacji we/wy z mniejszym opóźnieniem niż jakikolwiek inny typ dysku, który obsługujemy obecnie z wyjątkiem PMem. | |
SSD odnosi się do dysków półprzewodnikowych, które łączą się za pośrednictwem konwencjonalnych dysków SATA lub SAS. | |
HDD odnosi się do obrotowych, magnetycznych dysków twardych, które oferują ogromną pojemność magazynu. |
Uwaga
W tym artykule opisano wybieranie konfiguracji dysków z dyskami NVMe, SSD i HDD. Aby uzyskać więcej informacji na temat rozwiązania PMem, zobacz Omówienie i wdrażanie pamięci trwałej.
Uwaga
Pamięć podręczna warstwy magistrali magazynu (SBL) nie jest obsługiwana w konfiguracji pojedynczego serwera. Wszystkie płaskie konfiguracje typu pojedynczego magazynu (na przykład all-NVMe lub all-SSD) są jedynym obsługiwanym typem magazynu dla pojedynczego serwera.
Wbudowana pamięć podręczna
Miejsca do magazynowania Direct oferuje wbudowaną pamięć podręczną po stronie serwera. Jest to duża, trwała, w czasie rzeczywistym pamięć podręczna odczytu i zapisu. W przypadku wdrożeń z wieloma typami dysków jest on konfigurowany automatycznie do używania wszystkich dysków typu "najszybszy". Pozostałe dyski są używane do obsługi pojemności.
Aby uzyskać więcej informacji, zobacz Omówienie pamięci podręcznej puli magazynów.
Opcja 1 — maksymalizacja wydajności
Aby osiągnąć przewidywalne i jednolite opóźnienie podmilisekund w losowych odczytach i zapisach w dowolnych danych lub osiągnąć bardzo wysoką operację we/wy na sekundę (zrobiliśmy ponad 13 milionów!) lub przepływność operacji we/wy (wykonaliśmy ponad 500 GB/s odczytów), należy przejść "all-flash".
Istnieje wiele sposobów, aby to zrobić:
Wszystkie nvme. Użycie wszystkich urządzeń NVMe zapewnia niezrównaną wydajność, w tym najbardziej przewidywalne małe opóźnienie. Jeśli wszystkie dyski są tym samym modelem, nie ma pamięci podręcznej. Można również mieszać modele NVMe o wyższej wytrzymałości i mniejszej wytrzymałości, a następnie skonfigurować je do buforowania zapisów dla tego drugiego (wymaga skonfigurowania).
NVMe + SSD. Używając nvme wraz z dyskami SSD, urządzenie NVMe automatycznie buforuje zapisy na dyskach SSD. Umożliwia to łączenie zapisów w pamięci podręcznej i deetapowanie tylko w razie potrzeby w celu zmniejszenia zużycia dysków SSD. Zapewnia to cechy zapisu podobne do NVMe, podczas gdy odczyty są obsługiwane bezpośrednio z również szybkich dysków SSD.
Wszystkie dyski SSD. Podobnie jak w przypadku funkcji All-NVMe, nie ma pamięci podręcznej, jeśli wszystkie dyski są tym samym modelem. Jeśli mieszasz modele o wyższej wytrzymałości i mniejszej wytrzymałości, możesz skonfigurować te pierwsze do buforowania zapisów dla tej drugiej (wymaga skonfigurowania).
Uwaga
Zaletą korzystania z funkcji all-NVMe lub all-SSD bez pamięci podręcznej jest uzyskanie użytecznej pojemności magazynu z każdego dysku. Nie ma pojemności "wydanej" na buforowanie, co może być atrakcyjne na mniejszą skalę.
Opcja 2 — równoważenie wydajności i pojemności
W przypadku środowisk z różnymi aplikacjami i obciążeniami niektóre z rygorystycznymi wymaganiami dotyczącymi wydajności, a inne wymagają znacznej pojemności magazynu, należy przejść do "hybrydowego" buforowania dysków NVMe lub SSD dla większych dysków HDD.
NVMe + HDD. Dyski NVMe przyspieszają odczyty i zapisy, buforując oba te dyski. Buforowanie odczytów umożliwia dyskom HDD skoncentrowanie się na zapisach. Buforowanie zapisów pochłania wzrosty i umożliwia łączenie zapisów i deetapowanie tylko w razie potrzeby, w sposób sztucznie serializowany, który maksymalizuje przepływność operacji we/wy hdd i we/wy. Zapewnia to charakterystykę zapisu przypominającą nvme, a także dla często lub ostatnio odczytywanych danych, cechy odczytu podobne do NVMe.
SSD + HDD. Podobnie jak w powyższym przypadku dyski SSD przyspieszają odczyty i zapisy, buforując oba dyski SSD. Zapewnia to cechy zapisu podobne do dysków SSD i cechy odczytu podobne do dysków SSD dla często lub ostatnio odczytywanych danych.
Istnieje jedna dodatkowa, raczej egzotyczna opcja: aby używać dysków wszystkich trzech typów.
NVMe + SSD + HDD. Dyski wszystkich trzech typów pamięci podręcznej dysków NVMe dla dysków SSD i HDD. Odwołanie polega na tym, że można tworzyć woluminy na dyskach SSD i woluminy na dyskach HDD, obok siebie w tym samym klastrze, wszystkie przyspieszone przez NVMe. Te pierwsze są dokładnie tak samo jak we wdrożeniu "all-flash", a drugie są dokładnie tak samo jak w przypadku wdrożeń "hybrydowych" opisanych powyżej. Jest to koncepcyjnie podobne do posiadania dwóch pul z w dużej mierze niezależnym zarządzaniem pojemnością, cyklami awarii i naprawy itd.
Ważne
Zalecamy użycie warstwy SSD w celu umieszczania najbardziej wrażliwych obciążeń na wszystkich dyskach flash.
Opcja 3 — maksymalizacja pojemności
W przypadku obciążeń wymagających dużej pojemności i zapisu rzadko, takich jak archiwizacja, obiekty docelowe kopii zapasowych, magazyny danych lub magazyn "zimny", należy połączyć kilka dysków SSD na potrzeby buforowania z wieloma większymi dyskami HDD dla pojemności.
- SSD + HDD. Dyski SSD będą buforować odczyty i zapisy, aby wychwycić wzrosty i zapewnić wydajność zapisu przypominającego dyski SSD, z zoptymalizowanym de-przemieszczaniem później do dysków HDD.
Ważne
Konfiguracja wyłącznie z dyskami twardymi nie jest obsługiwana. Nie zaleca się buforowania dysków SSD o wysokiej wydajności za pomocą dysków SSD o niskiej wydajności.
Zagadnienia dotyczące ustalania rozmiaru
Pamięć podręczna
Każdy serwer musi mieć co najmniej dwa dyski pamięci podręcznej (jest to minimum wymagane do zapewnienia nadmiarowości). Zalecamy, aby liczba dysków pojemności stanowiła wielokrotność liczby dysków pamięci podręcznej. Jeśli na przykład masz 4 dyski pamięci podręcznej, wydajność będzie bardziej spójna po zainstalowaniu 8 dysków pojemności (stosunek 1:2) niż 7 lub 9.
Rozmiar pamięci podręcznej powinien być dostosowany do zestawu roboczego aplikacji i obciążeń, czyli wszystkich danych, które aktywnie odczytują i zapisują w dowolnym momencie. Poza tym nie ma wymagania dotyczącego rozmiaru pamięci podręcznej. W przypadku wdrożeń z dyskami HDD sprawiedliwe miejsce początkowe wynosi 10 procent pojemności — na przykład jeśli każdy serwer ma 4 x 4 TB hdd = 16 TB pojemności, to 2 x 800 GB SSD = 1,6 TB pamięci podręcznej na serwer. W przypadku wdrożeń wszystkich dysków flash, zwłaszcza w przypadku dysków SSD o bardzo wysokiej wytrzymałości , można zacząć bliżej 5 procent pojemności — na przykład jeśli każdy serwer ma 24 x 1,2 TB SSD = 28,8 TB pojemności, to 2 x 750 GB NVMe = 1,5 TB pamięci podręcznej na serwer. W celu dostosowania zawsze można dodawać lub usuwać dyski pamięci podręcznej.
Ogólne
Zalecamy ograniczenie całkowitej pojemności magazynu na serwer do około 400 terabajtów (TB). Tym większa pojemność magazynu na serwer, tym dłuższy czas potrzebny do ponownej synchronizacji danych po przestoju lub ponownym uruchomieniu, na przykład podczas stosowania aktualizacji oprogramowania. Bieżący maksymalny rozmiar puli magazynów to 4 petabajty (PB) (4000 TB) (1 PB dla systemu Windows Server 2016).
Następne kroki
Aby uzyskać więcej informacji, zobacz również: