Udostępnij za pośrednictwem


Deduplikacja magazynu programu DPM

Program System Center Data Protection Manager (DPM) może używać deduplikacji danych.

Deduplikacja danych znajduje i usuwa zduplikowane dane w woluminie, zapewniając jednocześnie, że dane pozostają poprawne i kompletne. Dowiedz się więcej o planowaniu deduplikacji.

  • Deduplikacja zmniejsza zużycie pamięci. Chociaż ilość nadmiarowości dla zestawu danych zależy od obciążenia i typu danych, zazwyczaj dane kopii zapasowej pokazują znaczne oszczędności w przypadku użycia deduplikacji.

  • Nadmiarowość danych można dodatkowo zmniejszyć dzięki deduplikacji podczas tworzenia kopii zapasowej danych podobnych typów i przetwarzania obciążeń razem.

  • Deduplikacja została zaprojektowana tak, aby była instalowana na podstawowych woluminach danych bez dodatkowego dedykowanego sprzętu, dzięki czemu nie wpływa na podstawowe obciążenie serwera. Ustawienia domyślne są nieintrusywne, ponieważ umożliwiają one starzenie się danych przez pięć dni przed przetworzeniem określonego pliku i mają domyślny minimalny rozmiar pliku wynoszący 32 KB. Implementacja została zaprojektowana z myślą o małym użyciu pamięci i procesora CPU.

  • Deduplikację można zaimplementować w następujących obciążeniach:

    • Ogólne udziały plików: publikowanie i udostępnianie zawartości grupy, foldery macierzyste użytkowników oraz przekierowanie folderu/pliki offline.

    • Elementy wdrożenia oprogramowania: pliki binarne, obrazy i aktualizacje.

    • Biblioteki VHD: Przechowywanie plików wirtualnego dysku twardego (VHD) do udostępniania hipernadzorcom.

    • Wdrożenia infrastruktury VDI (tylko system Windows Server 2012 R2): wdrożenia infrastruktury pulpitu wirtualnego (VDI) korzystające z funkcji Hyper-V.

    • Zwirtualizowane kopie zapasowe: rozwiązania do tworzenia kopii zapasowych (takie jak program DPM uruchomiony na maszynie wirtualnej funkcji Hyper-V), które zapisują dane kopii zapasowej w plikach VHD/VHDX na serwerze plików systemu Windows

Program DPM i deduplikacja

Użycie deduplikacji z programem DPM może spowodować duże oszczędności. Ilość miejsca oszczędzanego przez deduplikację podczas optymalizowania danych kopii zapasowej programu DPM różni się w zależności od typu kopii zapasowej danych. Na przykład tworzenie kopii zapasowej zaszyfrowanego serwera baz danych może spowodować minimalne oszczędności, ponieważ wszystkie zduplikowane dane są ukrywane podczas procesu szyfrowania. Jednak tworzenie kopii zapasowej dużego wdrożenia infrastruktury pulpitu wirtualnego (VDI) może prowadzić do znacznych oszczędności w wysokości od 70 do 90+%, ponieważ zazwyczaj istnieje duża ilość duplikacji danych między środowiskami pulpitu wirtualnego. W konfiguracji opisanej w artykule przeprowadziliśmy różne obciążenia testowe i zaobserwowaliśmy oszczędności w zakresie od 50% do 90%.

Aby użyć deduplikacji dla magazynu DPM, program DPM powinien być uruchomiony na maszynie wirtualnej Hyper-V i przechowywać dane kopii zapasowej na dyskach VHD w folderach udostępnionych z włączoną deduplikacją danych.

Aby wdrożyć program DPM jako maszynę wirtualną wykonującą kopię zapasową danych na woluminie dedupl, zalecamy następujące topologie wdrożenia:

  • DPM działający na maszynie wirtualnej w klastrze hostów Hyper-V.

  • Magazyn DPM używający plików VHD/VHDX przechowywanych w udziale SMB 3.0 na serwerze plików.

  • W naszym przykładzie testowym skonfigurowaliśmy serwer plików jako skalowany serwer plików (SOFS), wdrożony przy użyciu woluminów magazynu skonfigurowanych z pul Storage Spaces, utworzonych przy użyciu bezpośrednio połączonych dysków SAS. To wdrożenie zapewnia wydajność na dużą skalę.

Należy pamiętać, że:

  • To wdrożenie jest obsługiwane w programie DPM 2012 R2 i nowszym oraz dla wszystkich danych obciążeń, których kopię zapasową można utworzyć w programie DPM 2012 R2 lub nowszym.

  • Wszystkie węzły serwera plików systemu Windows, na których znajdują się wirtualne dyski twarde programu DPM i na których zostanie włączona deduplikacja, muszą mieć uruchomiony system Windows Server 2012 R2 z zbiorczą aktualizacją z listopada 2014 r. lub nowszym.

  • Przedstawimy ogólne zalecenia i instrukcje dotyczące wdrażania scenariusza. W każdym przykładzie odwołującym się do określonego sprzętu jako punkt odniesienia używany jest sprzęt wdrożony w systemie Microsoft Cloud Platform System (CPS).

  • W tym przykładzie użyto zdalnych udziałów SMB 3.0 do przechowywania danych kopii zapasowej, więc podstawowe wymagania sprzętowe koncentrują się wokół węzłów serwera plików, a nie węzłów Hyper-V. Poniższa konfiguracja sprzętu jest używana w usłudze CPS do tworzenia kopii zapasowych i magazynu produkcyjnego. Cały sprzęt jest używany zarówno do przechowywania kopii zapasowych, jak i do przechowywania produkcyjnego, ale w obudowach dysków wymienione są tylko te dyski, które są używane do tworzenia kopii zapasowych.

    • Klastra serwera plików typu Scale Out o czterech węzłach

    • Konfiguracja każdego węzła

      • 2x Procesor Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 rdzeni, 16 procesorów logicznych

      • Pamięć RDIMM 128 GB 1333 MHz

      • Połączenia magazynowe: 2 porty SAS, 1 port 10 GbE iWarp/RDMA

    • Cztery obudowy dysków JBOD

      • 18 dysków w każdym dysku JBOD — 16 x 4 TB dysków HDD + 2 x 800 GB dysków SSD

      • Podwójna ścieżka do każdego dysku — polityka równoważenia obciążenia Multipath I/O ustawiona tylko na tryb failover

      • Dyski SSD skonfigurowane na potrzeby pamięci podręcznej zapisu zwrotnego (WBC) i pozostałe dla dedykowanych dysków dziennika

Konfigurowanie woluminów deduplikacji

Rozważmy, jakie rozmiary powinny mieć woluminy, aby obsługiwać deduplikowane pliki VHDX zawierające dane DPM. W usłudze CPS utworzyliśmy wolumeny o pojemności 7,2 TB każdy. Optymalny rozmiar woluminu zależy głównie od zakresu i częstotliwości zmian danych w tym woluminie oraz od wielkości przepustowości dostępu do danych w podsystemie magazynu dysku. Warto pamiętać, że gdyby przetwarzanie deduplikacji nie nadążało za dzienną zmiennością danych, wskaźnik oszczędności spadnie, aż przetwarzanie zostanie zakończone. Aby uzyskać bardziej szczegółowe informacje, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych. Dla woluminów deduplikacji zalecane są następujące ogólne wskazówki:

  • W celu uzyskania odporności i zwiększonego wykorzystania dysku należy używać miejsc do magazynowania z opcją parzystości i wykrywaniem obudów.

  • Sformatuj system NTFS z jednostkami alokacji 64 KB i dużymi segmentami rekordów, aby lepiej współpracować z deduplikacją przy użyciu plików rozrzedzonych.

  • W konfiguracji sprzętu powyżej zalecanego rozmiaru woluminu 7,2 TB woluminy zostaną skonfigurowane w następujący sposób:

    • Podwójna parzystość świadoma obudowy 7,2 TB + 1 GB pamięci podręcznej z zapisem zwrotnym

      • ResiliencySettingName == Parzystość

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Interleave == 256 KB (Wydajność z podwójną parzystością przy 64 KB przeplataniu jest znacznie niższa niż przy domyślnym 256 KB przeplataniu)

      • IsEnclosureAware == $true

      • RozmiarJednostkiAlokacji=64 KB

      • Duża usługa replikacji plików

      Skonfiguruj nowy wirtualny dysk w określonej puli magazynów w następujący sposób:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Każdy z woluminów należy sformatować jako:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      Następnie we wdrożeniu systemu CPS są one konfigurowane jako pliki CSV.

    • W tych woluminach program DPM będzie przechowywał serię plików VHDX, które będą zawierać dane kopii zapasowej. Włącz deduplikację na woluminie po sformatowaniu go w następujący sposób:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      To polecenie modyfikuje również następujące ustawienia deduplikacji na poziomie woluminu:

      • Ustaw wartość UsageType na HyperV: powoduje to przetwarzanie deduplikacji otwartych plików, co jest konieczne, ponieważ pliki VHDX używane do przechowywania kopii zapasowych przez program DPM pozostają otwarte, gdy DPM jest uruchomiony na maszynie wirtualnej.

      • Wyłącz funkcję PartialFileOptimization: powoduje to, że deduplikacja optymalizuje wszystkie sekcje otwartego pliku zamiast skanować je pod kątem zmienionych sekcji, które mają określony minimalny wiek.

      • Ustaw parametr MinFileAgeDays na 0: przy wyłączonym PartialFileOptimization funkcja MinFileAgeDays zmienia swoje zachowanie, tak aby deduplikacja uwzględniała tylko pliki, które nie zostały zmienione w ciągu takiej liczby dni. Ponieważ chcemy, aby podczas deduplikacji przetwarzanie danych kopii zapasowej wszystkich plików VHDX programu DPM rozpoczęło się bez opóźnień, musimy ustawić parametr MinFileAgeDays na wartość 0.

Aby uzyskać więcej informacji na temat konfigurowania deduplikacji, zobacz Instalowanie i konfigurowanie duplikowania danych.

Konfigurowanie magazynu programu DPM

Aby uniknąć problemów z fragmentacją i utrzymać wydajność, przestrzeń na magazyn DPM jest przydzielana przy użyciu plików VHDX znajdujących się na deduplikowanych woluminach. Dziesięć dynamicznych plików VHDX o rozmiarze 1 TB każdy jest tworzonych na każdym woluminie i dołączonych do programu DPM. Ponadto 3 TB nadmiarowego przydziału przestrzeni dyskowej ma na celu wykorzystanie oszczędności przestrzeni dyskowej generowanych przez deduplikację. W miarę jak deduplikacja danych generuje dodatkowe oszczędności przestrzeni dyskowej, nowe pliki VHDX należy tworzyć na tych woluminach, aby korzystać z zapisanego miejsca. Przetestowaliśmy serwer DPM z dołączonymi do niego maksymalnie 30 plikami VHDX.

  1. Uruchom następujące polecenie, aby utworzyć wirtualne dyski twarde, które zostaną później dodane do serwera programu DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Następnie dodaj utworzone wirtualne dyski twarde do serwera programu DPM w następujący sposób:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Ten krok umożliwia skonfigurowanie puli magazynów jako dysku lub dysków, na których program DPM przechowuje repliki i punkty odzyskiwania dla chronionych danych. Ta pula jest częścią konfiguracji programu DPM i jest inna niż pula miejsc do magazynowania służąca do tworzenia woluminów danych opisanych w poprzedniej sekcji. Aby uzyskać więcej informacji na temat pul magazynów programu DPM, zobacz Konfigurowanie magazynu dysków i pul magazynów.

Konfigurowanie klastra serwera plików systemu Windows

Deduplikacja wymaga specjalnego zestawu opcji konfiguracji, który umożliwi obsługę zwirtualizowanego magazynu programu DPM z uwzględnieniem skali danych i rozmiaru poszczególnych plików. Są to opcje globalne względem klastra lub węzła klastra. W każdym węźle klastra należy włączyć deduplikację i indywidualnie skonfigurować ustawienia klastra.

  1. Włącz deduplikację na magazynie Windows File Server — rola deduplikacji musi być zainstalowana na wszystkich węzłach klastra Windows File Server. W tym celu uruchom następujące polecenie programu PowerShell w każdym węźle klastra:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Dostosuj przetwarzanie deduplikacji dla plików danych kopii zapasowych: uruchom następujące polecenie programu PowerShell, aby ustawić optymalizację bez opóźnień i bez optymalizacji częściowych zapisów plików. Domyślnie zadania GC są zaplanowane co tydzień, a co czwarty tydzień zadanie GC jest uruchamiane w trybie "głębokiego GC" w celu bardziej wyczerpującego i czasochłonnego wyszukiwania danych do usunięcia. W przypadku obciążenia programu DPM ten tryb "głębokiego odzyskiwania pamięci" nie powoduje żadnych doceniających zysków i skraca czas, w którym deduplikacja może zoptymalizować dane. Dlatego wyłączamy ten tryb głęboki.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Dostrajanie wydajności dla operacji na dużą skalę — uruchom następujący skrypt programu PowerShell, aby:

    • Wyłącz dodatkowe przetwarzanie i operacje we-wy podczas działania głębokiego odzyskiwania pamięci.

    • Zarezerwuj dodatkową pamięć do przetwarzania skrótów.

    • Włącz priorytetową optymalizację dla natychmiastowej defragmentacji dużych plików.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Te ustawienia służą do modyfikowania następujących elementów:

    • HashIndexFullKeyReservationPercent: Ta wartość określa, jaka część pamięci zadania optymalizacji jest przeznaczona na istniejące skróty fragmentów w porównaniu z nowymi skrótami fragmentów. Na dużą skalę ustawienie 70% powoduje skuteczniejszą optymalizację przepływności niż domyślne ustawienie 50%.

    • EnablePriorityOptimization: w przypadku plików zbliżających się do 1 TB fragmentacja pojedynczego pliku może zgromadzić wystarczającą ilość fragmentów, aby zbliżyć się do limitu dla pliku. Przetwarzanie optymalizacji powoduje skonsolidowanie tych fragmentów i uniemożliwia osiągnięcie tego limitu. Dzięki ustawieniu tego klucza rejestru deduplikacja spowoduje dodanie dodatkowego procesu obsługującego bardzo pofragmentowane, deduplikowane pliki o wysokim priorytecie.

Konfiguracja DPM i harmonogramowanie deduplikacji

Tworzenie kopii zapasowej i deduplikacja to procesy wymagające wielu operacji we-wy. Ich uruchomienie w tym samym czasie i wynikające z tego dodatkowe obciążenie podczas przełączania się między operacjami mogłoby być drogie i spowodować codzienne tworzenie kopii zapasowej bądź deduplikowanie mniejszej ilości danych. Zalecamy skonfigurowanie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dzięki temu ruch I/O dla każdej z tych operacji będzie skutecznie rozprowadzany podczas codziennego działania systemu. Podczas harmonogramowania zalecamy skorzystanie z następujących wskazówek:

  • Podziel dni na nienakładające się okna tworzenia kopii zapasowej i deduplikacji.

  • Skonfiguruj niestandardowe harmonogramy tworzenia kopii zapasowej.

  • Skonfiguruj niestandardowe harmonogramy deduplikacji.

  • Zaplanuj optymalizację w ramach okna codziennej deduplikacji.

  • Skonfiguruj oddzielne weekendowe harmonogramy deduplikacji, aby wykorzystać czas w celu wykonania zadań odzyskiwania pamięci i czyszczenia danych.

Harmonogramy programu DPM można skonfigurować przy użyciu następującego polecenia programu PowerShell:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

W tej konfiguracji program DPM jest konfigurowany tak, aby kopia zapasowa maszyn wirtualnych była tworzona między 22:00 i 6:00. Deduplikacja jest zaplanowania na pozostałe 16 godzin dnia. Rzeczywisty skonfigurowany czas deduplikacji zależy od rozmiaru woluminu. Aby uzyskać więcej informacji, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych. 16-godzinne okno deduplikacji rozpoczynające się o 6:00 po zakończeniu okna tworzenia kopii zapasowej zostanie skonfigurowane w następujący sposób z dowolnego węzła klastra:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Za każdym razem, gdy okno kopii zapasowej zostanie zmodyfikowane, należy zmodyfikować okno deduplikacji wraz z nim, aby nie nakładało się na siebie. Deduplikacja i okno tworzenia kopii zapasowej nie muszą zajmować pełnych 24 godzin; jednak zdecydowanie zaleca się, aby to robiły, aby uwzględnić zmiany w czasie przetwarzania ze względu na oczekiwane dzienne zmiany obciążeń i rotację danych.

Wpływ na wydajność tworzenia kopii zapasowej

Po deduplikacji zestawu plików może wystąpić niewielki koszt wydajności podczas uzyskiwania dostępu do plików. Wynika on z dodatkowych operacji przetwarzania wymaganych do uzyskiwania dostępu do używanego formatu deduplikowanych plików. W tym scenariuszu pliki są zestawem plików VHDX, które są ciągle używane przez program DPM podczas okna tworzenia kopii zapasowych. Efekt deduplikacji tych plików oznacza, że operacje tworzenia kopii zapasowych i odzyskiwania mogą być nieco wolniejsze niż bez deduplikacji. Podobnie jak w przypadku każdego produktu do tworzenia kopii zapasowej program DPM stanowi obciążenie intensywnie wykorzystujące operacje zapisu, a operacje odczytu są najważniejsze podczas procesów odzyskiwania danych. Poniżej podano zalecenia dotyczące wpływu procesu deduplikacji na wydajność tworzenia kopii zapasowej.

  • Operacje odczytu i przywracania: Efekty operacji odczytu są zazwyczaj minimalne i nie wymagają żadnych szczególnych rozważań, ponieważ funkcja deduplikacji buforuje deduplikowane fragmenty.

  • Operacje zapisu/tworzenia kopii zapasowej: zaplanuj wzrost czasu tworzenia kopii zapasowej o 5–10% podczas definiowania okna tworzenia kopii zapasowej. (Jest to wzrost w porównaniu do oczekiwanego czasu tworzenia kopii zapasowej podczas zapisywania na woluminach, które nie zostały zdeduplikowane.)

Monitorowanie

Program DPM i deduplikację danych można monitorować w celu zapewnienia, że:

  • Zarezerwowano wystarczającą ilość miejsca na dysku do przechowywania danych kopii zapasowej.

  • Zadania tworzenia kopii zapasowej programu DPM są kończone w zwykły sposób.

  • Na woluminach zapasowych włączono deduplikację.

  • Harmonogramy deduplikacji zostały prawidłowo ustawione.

  • Przetwarzanie deduplikacji jest codziennie wykonywane w zwykły sposób.

  • Wielkość oszczędności wynikających z deduplikacji odpowiada założeniom dla konfiguracji systemu.

Powodzenie deduplikacji zależy od ogólnych możliwości sprzętu systemu (w tym od szybkości przetwarzania procesora CPU, przepustowości operacji we/wy, pojemności magazynu), prawidłowej konfiguracji systemu, średniego obciążenia systemu i codziennej ilości modyfikowanych danych.

Program DPM można monitorować przy użyciu centralnej konsoli programu DPM. Zobacz Instalowanie konsoli centralnej.

Można monitorować proces deduplikacji, aby sprawdzić stan deduplikacji, wskaźnik oszczędności oraz stan harmonogramu przy użyciu następujących poleceń programu PowerShell:

Uzyskaj informacje na temat stanu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Uzyskaj informacje na temat oszczędności:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Aby uzyskać informacje na temat stanu harmonogramu, użyj polecenia cmdlet Get-DedupSchedule.

Monitorowanie zdarzeń

Monitorowanie dziennika zdarzeń może pomóc w zrozumieniu zdarzeń deduplikacji i ich statusu.

  • Aby przejrzeć zdarzenia deduplikacji, w Eksploratorze plikówprzejdź kolejno do pozycji Dzienniki aplikacji i usług>Microsoft>Windows>Deduplikacja.

  • Jeśli wartość LastOptimizationResult = 0x00000000 pojawi się w wynikach Get-DedupStatus |fl środowiska Windows PowerShell, cały zestaw danych został przetworzony przez poprzednie zadanie optymalizacji. W przeciwnym razie system nie mógł ukończyć przetwarzania deduplikacji — należy sprawdzić ustawienia konfiguracji, na przykład rozmiar woluminu.

Aby zapoznać się z bardziej szczegółowymi przykładami poleceń cmdlet, zobacz Monitorowanie deduplikacji danych i tworzenie powiązanych raportów.

Monitorowanie magazynu kopii zapasowych

W naszym przykładzie konfiguracji woluminy o pojemności 7,2 TB są wypełnione 10 TB "logicznych" danych, co oznacza rozmiar danych, gdy nie są one deduplikowane, przechowywanych w 10 plikach dynamicznych VHDX po 1 TB każdy. W miarę jak te pliki gromadzą dodatkowe dane kopii zapasowych, powoli wypełniają wolumin. Jeśli procent oszczędności wynikający z deduplikacji jest wystarczająco wysoki, wszystkie 10 plików będzie mogło osiągnąć maksymalny rozmiar logiczny i nadal mieścić się w woluminie 7,2 TB (potencjalnie może być nawet dodatkowe miejsce na przydzielenie dodatkowych plików VHDX dla serwerów programu DPM do użycia). Ale jeśli oszczędności rozmiaru z deduplikacji nie są wystarczające, miejsce na woluminie może zabraknąć, zanim pliki VHDX osiągną pełny rozmiar logiczny i wolumin będzie pełny. Aby zapobiec zapełnieniu woluminów, zalecamy wykonanie następujących czynności:

  • Zachowaj ostrożność przy określaniu rozmiaru woluminów i pozwól na pewne nadmiarowe przydzielenie pamięci masowej. Zaleca się przeznaczenie bufora co najmniej 10% podczas planowania użycia przestrzeni na kopie zapasowe, aby uwzględnić oczekiwane zmiany w oszczędnościach deduplikacji i zmianach danych.

  • Monitoruj woluminy używane na potrzeby magazynu kopii zapasowej, aby zapewnić wykorzystanie miejsca i oszczędności wynikające z deduplikacji na oczekiwanym poziomie.

Jeśli wolumin stanie się pełny, występują następujące objawy:

  • Maszyna wirtualna programu DPM zostanie wprowadzona w krytyczny stan wstrzymania i nie będzie można na niej inicjować żadnych dodatkowych zadań tworzenia kopii zapasowej.

  • Wszystkie zadania kopii zapasowej, które korzystają z plików VHDX na pełnym woluminie, zakończą się niepowodzeniem.

Aby odzyskać sprawność po tym stanie i przywrócić system do normalnego działania, można udostępnić dodatkowy magazyn i przeprowadzić migrację magazynu maszyny wirtualnej programu DPM lub jego dysku VHDX w celu zwolnienia miejsca.

  1. Zatrzymaj serwer programu DPM, który jest właścicielem plików VHDX w pełnym udziale kopii zapasowej.

  2. Utwórz dodatkowy wolumin i udział kopii zapasowej, używając tej samej konfiguracji i ustawień, co stosowane w istniejących udziałach, w tym ustawień NTFS i deduplikacji.

  3. Przeprowadź migrację magazynu dla maszyny wirtualnej serwera DPM i zmigruj co najmniej jeden plik VHDX z pełnego udziału kopii zapasowej do nowego udziału kopii zapasowej utworzonego w kroku 2.

  4. Uruchom zadanie oczyszczania deduplikacji danych w źródłowym udziale kopii zapasowej, który jest pełny. Zadanie GC powinno zakończyć się pomyślnie i odzyskać wolne miejsce.

  5. Uruchom ponownie maszynę wirtualną serwera programu DPM.

  6. Zadanie sprawdzania spójności programu DPM zostanie wyzwolone podczas następnego okna tworzenia kopii zapasowej dla wszystkich źródeł danych, które wcześniej zakończyły się niepowodzeniem.

  7. Wszystkie zadania tworzenia kopii zapasowej powinny teraz zakończyć się pomyślnie.

Podsumowanie

Połączenie deduplikacji z programem DPM umożliwia uzyskiwanie znacznych oszczędności miejsca. Dzięki temu można przechowywać większe ilości danych, częściej tworzyć kopie zapasowe i obniżać całkowity koszt posiadania powiązany z wdrożeniem programu DPM. Wskazówki i zalecenia przedstawione w tym dokumencie powinny dostarczyć Ci narzędzia i wiedzę umożliwiające skonfigurowanie deduplikacji dla przechowywania DPM oraz samodzielne dostrzeżenie korzyści we własnych wdrożeniach.

Często zadawane pytania

.: Pliki VHDX programu DPM muszą mieć rozmiar 1 TB. Czy oznacza to, że program DPM nie może utworzyć kopii zapasowej maszyny wirtualnej, programu SharePoint, bazy danych SQL lub woluminu pliku o rozmiarze > 1 TB?

Odpowiedź: Nie. Program DPM agreguje wiele woluminów na potrzeby przechowywania kopii zapasowych. Dlatego rozmiar pliku o rozmiarze 1 TB nie ma żadnych skutków dla rozmiarów źródeł danych, które program DPM może utworzyć kopię zapasową.

Pyt.: Wygląda na to, że pliki VHDX magazynu DPM muszą być wdrażane wyłącznie na zdalnych udziałach plików SMB. Co się stanie, jeśli będę przechowywać pliki VHDX na woluminach z włączoną deduplikacją w tym samym systemie, w którym działa maszyna wirtualna programu DPM?

1: Jak omówiono powyżej, DPM, Hyper-V i deduplikacja są operacjami intensywnie wykorzystującymi zasoby magazynowania i obliczeniowe. Połączenie wszystkich trzech z nich w jednym systemie może prowadzić do operacji we/wy i operacji intensywnych zasobowo, które mogą powodować niedobory zasobów dla Hyper-V i jego maszyn wirtualnych. Jeśli zdecydujesz się eksperymentować z konfigurowaniem programu DPM na maszynie wirtualnej przy użyciu woluminów magazynu kopii zapasowych na tym samym komputerze, należy uważnie monitorować wydajność, aby upewnić się, że istnieje wystarczająca przepustowość operacji we/wy i pojemność obliczeniowa, aby zachować wszystkie trzy operacje na tej samej maszynie.

Pyt.: Zalecane jest użycie dedykowanych osobnych okien na potrzeby deduplikacji i tworzenia kopii zapasowej. Dlaczego nie mogę włączyć deduplikacji, gdy program DPM wykonuje kopię zapasową? Muszę utworzyć kopię zapasową bazy danych SQL co 15 minut.

O: Deduplikacja i DPM to operacje intensywnie wykorzystujące zasoby magazynowe, a ich działanie w tym samym czasie może być nieefektywne i prowadzić do głodu zasobów we/wy. W związku z tym, aby chronić obciążenia więcej niż raz dziennie (na przykład serwer SQL co 15 minut) i włączyć deduplikację w tym samym czasie, upewnij się, że istnieje wystarczająca przepustowość we/wy i moc obliczeniowa, aby uniknąć braku zasobów.

Pyt.: W opisanej konfiguracji program DPM należy uruchomić na maszynie wirtualnej. Dlaczego nie mogę włączyć deduplikacji bezpośrednio na woluminie repliki i woluminach kopii w tle, zamiast na plikach VHDX?

Odp.: Dedup wykonuje deduplikację na poziomie każdego woluminu operując na pojedynczych plikach. Ponieważ deduplikacja optymalizuje się na poziomie pliku, nie jest przeznaczona do obsługi technologii VolSnap używanej przez program DPM do przechowywania danych kopii zapasowych. Po uruchomieniu programu DPM na maszynie wirtualnej funkcja Hyper-V mapuje operacje woluminu programu DPM do poziomu pliku VHDX. Pozwala to funkcji deduplikacji na optymalizowanie danych kopii zapasowych i zapewnianie większych oszczędności pojemności magazynu.

P: Powyższa przykładowa konfiguracja utworzyła woluminy o rozmiarze tylko 7,2 TB. Czy mogę tworzyć woluminy większe lub mniejsze?

Odp.: Funkcja deduplikacji uruchamia jeden wątek dla każdego woluminu. W miarę jak rozmiar woluminu staje się większy, deduplikacja wymaga więcej czasu na ukończenie swojej optymalizacji. Z drugiej strony w przypadku małych woluminów jest mniej danych, w których można znaleźć zduplikowane fragmenty, co może spowodować zmniejszenie oszczędności. Dlatego zaleca się dostosowanie rozmiaru woluminu na podstawie wskaźnika zmian i możliwości sprzętowych systemu w celu uzyskania optymalnych oszczędności. Więcej szczegółowych informacji na temat określania rozmiarów woluminów używanych podczas deduplikacji można znaleźć w części Ustalanie rozmiarów woluminów na potrzeby deduplikacji w systemie Windows Server. Aby uzyskać bardziej szczegółowe informacje na temat określania rozmiarów woluminów używanych z deduplikacją, zobacz Ustalanie rozmiaru woluminów na potrzeby deduplikacji danych.