Sdílet prostřednictvím


Odstranění duplicitních dat v úložišti DPM

Nástroj System Center Data Protection Manager (DPM) může používat odstranění duplicitních dat.

Odstranění duplicitních dat (odstranění duplicitních dat) najde a odebere duplicitní data ve svazku a zároveň zajistí, aby data zůstala správná a úplná. Přečtěte si další informace o plánování odstranění duplicitních dat.

  • Odstranění duplicitních dat snižuje spotřebu úložiště. I když množství redundance pro sadu dat bude záviset na pracovní zátěži a typu dat, záložní data obvykle při použití deduplikace ukazují výrazné úspory.

  • Redundanci dat je možné dále snížit díky deduplikaci při společném zpracování zálohovaných dat podobných typů a úloh.

  • Dedup je navržen tak, aby se nainstaloval na primární datové svazky bez potřeby dalšího vyhrazeného hardwaru, aby nedocházelo k ovlivnění primární úlohy na serveru. Výchozí nastavení jsou nenápadná, protože umožňují, aby data byla pět dní nezpracovaná před zpracováním určitého souboru, a mají výchozí minimální velikost souboru 32 KB. Implementace je navržená pro nízké využití paměti a procesoru.

  • Deduplikace lze implementovat na následujících úlohách:

    • Obecné sdílení souborů: Publikování a sdílení obsahu skupiny, domovské složky uživatelů a přesměrování složek / Offline soubory

    • Sdílené složky nasazení softwaru: Binární soubory, image a aktualizace softwaru

    • Knihovny VHD: Úložiště souborů virtuálního pevného disku (VHD) pro zřizování pro hypervisory

    • Nasazení VDI (jenom Windows Server 2012 R2): nasazení virtuální desktopové infrastruktury (VDI) pomocí Hyper-V

    • Virtualizované zálohování: Řešení zálohování (například DPM spuštěná na virtuálním počítači Hyper-V), která ukládají zálohovaná data do souborů VHD/VHDX na souborovém serveru Windows

DPM a odstranění duplicitních dat

Použití deduplikace s DPM může vést k velkým úsporám. Množství místa ušetřeného deduplikací při optimalizaci dat zálohovaných pomocí DPM se liší podle typu zálohovaných dat. Například zálohování šifrovaného databázového serveru může vést k minimálním úsporám, protože proces šifrování skryje duplicitní data. Zálohování velkého nasazení Virtuální desktopové infrastruktury (VDI) však může vést k výrazným úsporám v rozmezí 70–90+ %, protože mezi prostředími virtuálních desktopů je obvykle velké množství duplicitních dat. V konfiguraci popsané v článku jsme spustili různé testovací úlohy a viděli jsme úspory v rozsahu od 50 do 90 %.

Pokud chcete používat deduplikaci pro úložiště DPM, musí DPM běžet na virtuálním počítači Hyper-V a ukládat zálohovaná data do VHD ve sdílených složkách s povolenou deduplikací dat.

Pokud chcete nasadit DPM jako virtuální počítač, který zálohuje data na deduplikovaný svazek, doporučujeme následující topologii nasazení:

  • DPM spuštěná na virtuálním počítači v hostitelském clusteru Hyper-V.

  • Úložiště DPM využívající soubory VHD/VHDX uložené ve sdílené složce SMB 3.0 na souborovém serveru.

  • V našem testovacím příkladu jsme nakonfigurovali souborový server jako rozšířený souborový server (SOFS) nasazený pomocí svazků vytvořených z fondů Storage Spaces, které byly postaveny s použitím přímo připojených jednotek SAS. Toto nasazení zajišťuje výkon ve velkém měřítku.

Poznámky:

  • Toto nasazení je podporováno pro DPM 2012 R2 a novější a pro všechna data úloh, která je možné zálohovat pomocí DPM 2012 R2 a novějších.

  • Všechny uzly souborového serveru Windows, na kterých se nacházejí virtuální pevné disky DPM a na kterých bude povoleno odstraňování duplicitních dat, musí používat Windows Server 2012 R2 s kumulativní aktualizací z listopadu 2014 nebo novější.

  • Poskytneme obecná doporučení a pokyny pro nasazení scénáře. Kdykoli se zobrazí příklady specifické pro hardware, použije se pro referenci hardware nasazený v systému MICROSOFT Cloud Platform System (CPS).

  • Tento příklad používá vzdálené sdílené složky SMB 3.0 k ukládání zálohovaných dat, takže primární hardwarové požadavky jsou zaměřené na uzly souborového serveru místo uzlů Hyper-V. Následující konfigurace hardwaru se používá v CPS pro zálohování a produkční úložiště. Celkové hardwarové vybavení se používá jak pro zálohování, tak pro produkční úložiště, ale počet jednotek uvedených ve skříních jednotek jsou použity jenom pro zálohování.

    • Cluster souborového serveru Scale-Out na čtyři uzly

    • Konfigurace pro jednotlivé uzly

      • 2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 jader, 16 logických procesorů

      • Paměť RDIMM 128 GB 1333 MHz

      • Připojení úložiště: 2 porty SAS, 1 port 10 GbE iWarp/RDMA

    • Čtyři skříně jednotek JBOD

      • 18 disků v každém JBOD - 16 × 4 TB HDD + 2 x 800 GB SSD

      • Duální cesta ke každé jednotce – zásada vyrovnávání zatížení multipath I/O nastavená tak, aby převzala práci pouze v případě selhání.

      • SSD disky nakonfigurované pro zápis do mezipaměti (WBC) a zbytek pro vyhrazené jednotky deníku

Nastavení svazků pro odstranění duplicitních dat

Podívejme se, jak velké by měly být svazky, aby podporovaly deduplikované soubory VHDX obsahující data DPM. V systému CPS jsme vytvořili svazky o velikosti 7,2 TB. Optimální velikost svazku závisí především na tom, kolik a jak často se data na svazku mění, a na rychlostech propustnosti přístupu k datům subsystému diskového úložiště. Je důležité si uvědomit, že pokud deduplikace dat nedokáže držet krok s denními změnami dat (fluktuací), míra úspor se sníží, dokud zpracování nebude dokončeno. Podrobnější informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. Pro svazky pro deduplikaci se doporučují následující obecné pokyny:

  • Používejte úložné prostory s paritou a s ohledem na skříň pro zajištění odolnosti a zvýšené využití disků.

  • Naformátujte NTFS s přidělením jednotek 64 KB a velkými segmenty záznamů souborů, aby lépe fungoval s deduplikací použitím řídkých souborů.

  • V konfiguraci hardwaru nad doporučenou velikostí svazku 7,2 TB se svazky nakonfigurují takto:

    • Duální parita s podporou integrace úložišť 7,2 TB + 1 GB zápisové mezipaměti

      • ResiliencySettingName == Parita

      • PhysicalDiskRedundancy == 2

      • NumberOfColumns == 7

      • Prokládání == 256 KB (Výkon duální parity při 64 KB prokládání je mnohem nižší než při výchozím 256 KB prokládání).

      • IsEnclosureAware == $true

      • AllocationUnitSize=64 KB

      • Velká FRS

      V zadaném fondu úložiště nastavte nový virtuální disk následujícím způsobem:

      New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
      
    • Každý z těchto svazků pak musí být formátován takto:

      Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
      

      V nasazení CPS se tyto prvky pak nakonfigurují jako soubory CSV (hodnoty oddělené čárkami).

    • V rámci těchto svazků uloží APLIKACE DPM řadu souborů VHDX pro uložení zálohovaných dat. Po naformátování na svazku povolte odstranění duplicitních dat následujícím způsobem:

      Enable-DedupVolume -Volume <volume> -UsageType HyperV
      Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
      

      Tento příkaz také upraví následující nastavení deduplikace na úrovni svazku:

      • Nastavit UsageType na HyperV: Výsledkem je deduplikace otevřených souborů, které jsou potřeba, protože soubory VHDX používané pro úložiště záloh DPM zůstávají otevřené, když je DPM spuštěn na své virtuální stroji.

      • Zakázat PartialFileOptimization: Tím dojde k optimalizaci všech sekcí otevřeného souboru pomocí deduplikace místo vyhledávání změněných sekcí s minimálním stářím.

      • Nastavte parametr MinFileAgeDays na hodnotu 0: S vypnutou funkcí PartialFileOptimization změní MinFileAgeDays své chování tak, aby deduplikace zohledňovala pouze soubory, které se nezměnily po daný počet dní. Jelikož chceme, aby deduplikace bez zpoždění začala zpracovávat zálohovaná data ve všech souborech DPM VHDX, musíme nastavit MinFileAgeDays na 0.

Další informace o nastavení deduplikace najdete v Instalace a konfigurace deduplikace dat.

Nastavení úložiště DPM

Aby nedocházelo k problémům s fragmentací a zachovala se efektivita, přiděluje se úložiště DPM pomocí souborů VHDX umístěných na deduplikovaných svazcích. Na každém svazku se vytvoří deset dynamických souborů VHDX o velikosti 1 TB a připojí se k DPM. Navíc se provádí 3 TB nadměrného zřízení úložiště, aby se využily úspory úložiště vytvořené odstraněním duplicitních dat. Vzhledem k tomu, že odstranění duplicitních dat vytváří další úspory úložiště, je možné na těchto svazcích vytvořit nové soubory VHDX, aby spotřebovaly uložený prostor. Server DPM jsme otestovali s až 30 připojenými soubory VHDX.

  1. Spuštěním následujícího příkazu vytvořte virtuální pevné disky, které se později přidají na server DPM:

    New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
    
  2. Potom jste do serveru DPM přidali vytvořené virtuální pevné disky následujícím způsobem:

    Import-Module "DataProtectionManager"
    Set-StorageSetting -NewDiskPolicy OnlineAll
    $dpmdisks = @()
    $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool -
    eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false}
    Add-DPMDisk $dpmdisks
    

    Tento krok konfiguruje úložný fond jako disk či disky, na kterých DPM ukládá repliky a body obnovení pro chráněná data. Tento fond je součástí konfigurace APLIKACE DPM a je oddělený od fondu Prostory úložiště, který slouží k vytvoření datových svazků popsaných v předchozí části. Další informace o fondech úložiště DPM najdete v tématu Konfigurace diskových úložišť a fondů úložiště.

Nastavení clusteru souborového serveru Windows

Dedup vyžaduje speciální sadu možností konfigurace pro podporu virtualizovaného úložiště DPM vzhledem k rozsahu dat a velikosti jednotlivých souborů. Tyto možnosti jsou globální pro cluster nebo uzel clusteru. Deduplikace musí být aktivována a nastavení clusteru musí být jednotlivě nastavena na každém uzlu.

  1. Povolit odstranění duplicitních dat v úložišti souborového serveru Systému Windows – Role Odstranění duplicitních dat musí být nainstalovaná na všech uzlech clusteru souborového serveru Windows. Uděláte to tak, že na každém uzlu clusteru spustíte následující příkaz PowerShellu:

    Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
    
  2. Optimalizace deduplikačního zpracování záložních datových souborů – Spusťte následující příkaz v PowerShellu a nastavte, aby se optimalizace zahájila okamžitě bez zpoždění a nepokoušela se o optimalizaci částečných zápisů souborů. Ve výchozím nastavení jsou úlohy uvolňování paměti (GC) naplánované jednou týdně, a každý čtvrtý týden se úloha uvolňování paměti spustí v režimu "deep GC", který umožňuje důkladnější a časově náročnější hledání dat k odebrání. Pro úlohu DPM tento režim hlubokého GC nemá za následek žádné znatelné zisky a zkracuje čas, ve kterém může deduplikace optimalizovat data. Proto zakážeme tento hluboký režim.

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
    
  3. Vylaďte výkon pro operace ve velkém rozsahu– Spusťte následující skript PowerShell pro:

    • Zakázat další zpracování a vstupně-výstupní operace během běhu hloubkového uvolňování paměti

    • Zarezervujte si další paměť pro zpracování hash.

    • Povolení optimalizace priority, která umožňuje okamžitou defragmentaci velkých souborů

    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70
    Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
    

    Tato nastavení upravují následující:

    • HashIndexFullKeyReservationPercent: Tato hodnota určuje, kolik paměti úlohy optimalizace se používá pro existující hodnoty hash bloků dat a nové hodnoty hash bloků dat. Ve velkém měřítku vede 70 % k lepší optimalizaci propustnosti než výchozí 50 %.

    • EnablePriorityOptimization: U souborů, které se blíží velikosti 1 TB, může fragmentace jediného souboru nahromadit tolik fragmentů, že se přiblíží k limitu fragmentů na jeden soubor. Zpracování optimalizace tyto fragmenty konsoliduje a brání dosažení tohoto limitu. Nastavením tohoto klíče registru deduplikace přidá dodatečný proces ke zpracování vysoce fragmentovaných deduplikovaných souborů s vysokou prioritou.

Nastavení plánování dpm a odstranění duplicitních dat

Operace zálohování i odstranění duplicitních dat jsou náročné na vstupně-výstupní operace. Pokud by běžely současně, dodatečné režijní náklady na přepínání mezi operacemi by mohly být vysoké a vést k tomu, že by se denně zálohovalo nebo deduplikovalo méně dat. Doporučujeme nakonfigurovat vyhrazená a samostatná okna odstranění duplicitních dat a oken zálohování. To pomáhá zajistit efektivní distribuci vstupně-výstupních přenosů pro každou z těchto operací během každodenního provozu systému. Doporučené pokyny pro plánování jsou:

  • Rozdělte dny do nepřekrývajících se oken zálohování a odstraňování duplicitních dat.

  • Nastavte vlastní plány zálohování.

  • Nastavte vlastní plány deduplikace.

  • Optimalizace rozvrhu v denním okně pro deduplikaci.

  • Nastavte plány odstraňování duplicit o víkendech samostatně a využijte tento čas pro úlohy uvolňování paměti a scrubbingu.

Plány DPM můžete nastavit pomocí následujícího příkazu PowerShellu:

Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration

V této konfiguraci je APLIKACE DPM nakonfigurovaná tak, aby zálohovala virtuální počítače od 10:00 do 6:00. Odstranění duplicitních dat je naplánované na zbývajících 16 hodin dne. Skutečný čas odstranění duplicitních dat, který nakonfigurujete, bude záviset na velikosti svazku. Další informace najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat. 16hodinové okno odstranění duplicitních dat začínající na 6:00 po skončení okna zálohování by se nakonfigurovalo následujícím způsobem z libovolného uzlu clusteru:

#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}

Kdykoli se okno zálohování upraví, je důležité, aby se okno odstranění duplicitních dat upravilo společně s ním, aby se nepřekrývaly. Odstranění duplicitních dat a okno zálohování nemusí vyplnit celých 24 hodin dne; Důrazně se ale doporučuje, aby umožňovaly variace doby zpracování kvůli očekávaným denním změnám úloh a četnosti změn dat.

Důsledky pro výkon zálohování

Po deduplikaci sady souborů může při přístupu k souborům dojít k mírnému poklesu výkonu. Důvodem je další zpracování potřebné pro přístup k formátu souboru používanému soubory s odstraněnými duplicitními daty. V tomto scénáři jsou soubory sadou souborů VHDX, které jsou průběžně používány DPM během okna zálohování. Účinek odstranění duplicitních dat těchto souborů znamená, že operace zálohování a obnovení mohou být mírně pomalejší než bez odstranění duplicitních dat. Stejně jako u jakéhokoli zálohovacího produktu je DPM úlohou náročné na zápis a operace čtení je při operacích obnovení nejdůležitější. Doporučení pro řešení dopadů na výkon zálohování z důvodu odstranění duplicitních dat jsou:

  • Operace čtení a obnovení: Účinky na operace čtení jsou obvykle zanedbatelné a nevyžadují žádné zvláštní aspekty, protože funkce odstranění duplicitních dat ukládá do mezipaměti bloky dat odstraněných duplicitních dat.

  • Operace zápisu a zálohování: Při definování okna zálohování naplánujte zvýšení doby zálohování o 5 až 10 %. (Jedná se o nárůst ve srovnání s očekávaným časem zálohování při zápisu na nededuplikované svazky.)

Sledování

Odstranění duplicitních dat a DPM lze monitorovat, aby se zajistilo, že:

  • Pro uložení zálohovaných dat je zřízeno dostatek místa na disku.

  • Úlohy zálohování DPM se dokončují normálně

  • Odstranění duplicitních dat je na záložních svazcích povolené.

  • Plány odstranění duplicitních dat jsou správně nastavené.

  • Zpracování odstranění duplicitních dat probíhá normálně denně.

  • Míra úspory odstranění duplicitních dat odpovídá předpokladům pro konfiguraci systému.

Úspěch odstranění duplicitních dat závisí na celkových hardwarových možnostech systému (včetně rychlosti zpracování procesoru, šířky pásma vstupně-výstupních operací, kapacity úložiště), správné konfigurace systému, průměrného zatížení systému a denního množství upravených dat.

DPM můžete monitorovat pomocí centrální konzoly DPM. Viz Instalace centrální konzoly.

Můžete monitorovat stav deduplikace, míru úspory a stav plánu pomocí následujících příkazů PowerShellu:

Získání stavu:

PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:

Získejte úspory:

PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:

Pomocí rutiny Get-DedupSchedule získejte stav plánu.

Monitorování událostí

Monitorování protokolu událostí vám může pomoct pochopit události a stav odstranění duplicitních dat.

  • Pro zobrazení událostí deduplikace přejděte v Průzkumníku souborů na Protokoly aplikací a služebMicrosoftWindowsDeduplication.

  • Pokud se hodnota LastOptimizationResult = 0x00000000 zobrazí ve výsledcích Get-DedupStatus |fl Windows PowerShellu, byla celá datová sada zpracována předchozí úlohou optimalizace. Pokud ne, systém nemohl dokončit zpracování odstranění duplicitních dat a možná budete chtít zkontrolovat nastavení konfigurace, například velikost svazku.

Podrobnější příklady cmdlt najdete v tématu Monitorování a reportování pro deduplikaci dat.

Monitorujte zálohovací úložiště

V našem příkladu konfigurace jsou svazky o velikosti 7,2 TB vyplněné 10 TB logických dat (velikost dat ve formátu, v němž nejsou odstraněny duplicity) uložených v deseti dynamických souborech VHDX o velikosti 1 TB. Jakmile tyto soubory hromadí další zálohovaná data, postupně zaplní paměť. Pokud je procento úspory způsobené odstraněním duplicitních dat dostatečně vysoké, bude mít všech 10 souborů možnost dosáhnout maximální logické velikosti a stále se vejde do svazku 7,2 TB (může se stát, že bude ještě více místa pro přidělení dalších souborů VHDX pro servery DPM, které budou používat). Pokud ale úspora velikosti z odstranění duplicitních dat nestačí, může dojít k vyčerpání místa na svazku, než soubory VHDX dosáhnou své plné logické velikosti a svazek bude plný. Pokud chcete zabránit zaplnění svazků, doporučujeme následující:

  • Buďte konzervativní v požadavcích na velikost svazku a povolte určitou nadměrnou alokaci diskového úložiště. Při plánování využití zálohovacího úložiště se doporučuje ponechat rezervu alespoň 10 % pro očekávané odchylky v úsporách z deduplikace a fluktuaci dat.

  • Monitorujte svazky používané pro úložiště záloh, abyste zajistili, že využití místa a míra úspor díky deduplikaci jsou na očekávaných úrovních.

Pokud se svazek zaplní, dojde k následujícím příznakům:

  • Virtuální počítač DPM se umístí do kritického stavu pozastavení a tento virtuální počítač nebude moct vydat žádné další úlohy zálohování.

  • Všechny úlohy zálohování, které používají soubory VHDX na celém svazku, selžou.

Pokud se chcete z této podmínky zotavit a obnovit systém do normálního provozu, je možné zřídit další úložiště a provést migraci úložiště virtuálního počítače DPM nebo jeho VHDX, aby se uvolnilo místo:

  1. Zastavte server DPM, který vlastní soubory VHDX ve sdílené složce pro úplnou zálohu.

  2. Vytvořte další svazek a sdílenou složku zálohování pomocí stejné konfigurace a nastavení jako pro existující sdílené složky, včetně nastavení systému souborů NTFS a odstranění duplicitních dat.

  3. Migrujte úložiště pro virtuální počítač DPM Serveru a migrujte alespoň jeden soubor VHDX ze sdílené složky úplného zálohování do nové sdílené složky zálohování vytvořené v kroku 2.

  4. Spusťte úlohu vyčistění odpadu deduplikace dat (GC) na zdrojovém úložišti zálohování, které bylo plné. Úloha GC by měla být úspěšná a uvolnit volné místo.

  5. Restartujte virtuální počítač serveru DPM.

  6. Úloha kontroly konzistence DPM se aktivuje během dalšího okna zálohování pro všechny zdroje dat, které dříve selhaly.

  7. Všechny úlohy zálohování by teď měly být úspěšné.

Shrnutí

Kombinace odstranění duplicitních dat a DPM poskytuje značné úspory místa. To umožňuje vyšší míru udržení dat, častější zálohování a zlepšení celkových nákladů na vlastnictví pro nasazení DPM. Pokyny a doporučení v tomto dokumentu by vám měly poskytnout nástroje a znalosti ke konfiguraci odstranění duplicitních dat pro úložiště DPM a vidět výhody pro vás ve vlastním nasazení.

Časté dotazy

Otázka: Soubory VHDX DPM musí mít velikost 1 TB. Znamená to, že DPM nemůže zálohovat virtuální počítač, sharepointovou databázi nebo databázi SQL nebo svazek souboru o velikosti > 1 TB?

Odpověď: Ne. APLIKACE DPM agreguje několik svazků do jednoho pro ukládání záloh. Velikost souboru o velikosti 1 TB tedy nemá žádný vliv na velikosti zdrojů dat, které dpm dokáže zálohovat.

Otázka: Zdá se, že soubory VHDX úložiště DPM musí být nasazeny pouze ve vzdálených sdílených složkách SMB. Co se stane, když uložím záložní soubory VHDX na svazky s podporou odstranění duplicitních dat ve stejném systému, na kterém je spuštěný virtuální počítač DPM?

A: Jak je popsáno výše, DPM, Hyper-V a odstraňování duplicitních dat jsou operace náročné na úložiště a výpočetní výkon. Kombinace všech tří z nich v jednom systému může vést k operacím náročným na vstupně-výstupní operace a procesy, které mohou hladovět Hyper-V a jeho virtuální počítače. Pokud se rozhodnete experimentovat s konfigurací DPM na virtuálním počítači se svazky úložiště zálohování na stejném počítači, měli byste pečlivě monitorovat výkon, abyste měli jistotu, že je dostatek šířky pásma vstupně-výstupních operací a výpočetní kapacity pro údržbu všech tří operací na stejném počítači.

Otázka: Doporučujeme vyhrazená samostatná okna odstranění duplicitních dat a zálohování. Proč nemůžu povolit deduplikaci, když DPM zálohuje? Potřebuji zálohovat databázi SQL každých 15 minut.

A: Dedup a DPM jsou operace náročné na úložiště a jejich současné běh může být neefektivní a vést k I/O přetížení. Proto chcete chránit úlohy více než jednou denně (například SQL Server každých 15 minut) a zároveň povolit odstraňování duplicitních dat, ujistěte se, že je dostatek šířky pásma vstupně-výstupních operací a kapacity počítače, aby nedošlo k vyčerpání prostředků.

Otázka: Na základě popsané konfigurace musí aplikace DPM běžet na virtuálním počítači. Proč nelze povolit odstraňování duplicitních dat přímo u svazků repliky a stínové kopie, ale pouze u souborů VHDX?

A: Dedup provádí deduplikaci na úrovni svazku, která pracuje s jednotlivými soubory. Vzhledem k tomu, že deduplikace optimalizuje na úrovni souborů, není navržena tak, aby podporovala technologii VolSnap, kterou DPM používá k ukládání zálohovacích dat. Spuštěním DPM na virtuálním počítači Hyper-V namapuje operace svazku DPM na úroveň souborů VHDX, což umožňuje deduplikaci optimalizovat zálohovaná data a zajistit větší úsporu úložiště.

Otázka: Výše uvedená ukázková konfigurace vytvořila pouze 7,2 TB svazků. Můžu vytvořit větší nebo menší svazky?

A: Dedup spouští jedno vlákno na každém svazku. Jak se velikost svazku zvětšuje, deduplikace vyžaduje více času na dokončení optimalizace. Na druhou stranu s malými objemy je méně dat, ve kterých se dají najít duplicitní bloky dat, což může vést ke snížení úspor. Proto je vhodné přizpůsobit velikost svazku podle celkového objemu změn a možností hardwaru systému, aby se dosáhlo optimálních úspor. Podrobnější informace o určování velikostí svazků používaných s odstraněním duplicitních dat najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat ve Windows Serveru. Podrobnější informace o určování velikostí svazků používaných s odstraněním duplicitních dat najdete v tématu Určení velikosti svazků pro odstranění duplicitních dat.