Deduplicera DPM-lagring
Utgivet: mars 2016
Den här artikeln beskriver hur du minskar användningen av DPM-lagringsutrymmet genom att aktivera deduplicering för DPM-lagring. I det här scenariot körs DPM på en virtuell Hyper-V-dator och lagrar säkerhetskopierade data till virtuella hårddiskar i delade mappar på en Windows-filserver med datadeduplicering aktiverat.
Översikt
Den snabba datatillväxten ställer dagens IT-administratörer inför enorma utmaningar, vilket blir tydligt i IDC:s prognos över världens data fram till och med år 2020. I takt med att företagens datatillväxt ökar, ökar behovet av extra lagringsutrymme.
Datatillväxt leder också till högre underhålls- och maskinvarukostnader. Som du ser nedan är 62 % av IT-administratörerna bekymrade över att behöva öka maskin-, program- och underhållskostnaderna. Den fullständiga undersökningen finns i Is the Data Explosion Impacting You i Informatica-bloggen.
IT-administratörer säkerhetskopierar produktionsdata för återställningsändamål och för att uppfylla företagets efterlevnadskrav. Säkerhetskopiering är en utrymmeskrävande åtgärd och IT-administratörerna prioriterar lösningar som kan minska användningen av lagringsutrymme för säkerhetskopior.
Deduplicering kan bidra till att minska lagringsanvändningen. Visserligen beror mängden redundans i en viss uppsättning data på typen av arbetsbelastning och data som används, men deduplicering av säkerhetskopierade data kan oftast leda till stora besparingar. Ytterligare redundans, och därmed ytterligare besparingar från deduplicering, kan uppnås när säkerhetskopierade data från liknande arbetsbelastningar med liknande datamängder behandlas tillsammans. DPM utnyttjar deduplicering för att ge dessa fördelar.
DPM-översikt
System Center Data Protection Manager är en säkerhetskopieringslösning för företag som tillhandahåller:
Programmedveten säkerhetskopiering och återställning – DPM skyddar klienter, servrar, virtuella datorer, filserverdata och programarbetsbelastningar. Lösningen ger flexibla säkerhetskopieringsalternativ, inklusive möjligheten att säkerhetskopiera vissa arbetsbelastningar så ofta som var 15:e minut. DPM har många återställningsfunktioner. Kunder kan till exempel ersätta en aktuell SQL Server-produktionsdatabas med en äldre kopia, återställa databaser till en annan plats för utredningsändamål eller återställa som filer för att lämna en kopia till den juridiska avdelningen. DPM hjälper IT-administratörer att välja den typ av återställning som de behöver. DPM stöder återställning av slutanvändare. Exempelvis kan en SQL-administratör, filsystemadministratör eller klientanvändare återställa alla sina data direkt utan att be en administratör om hjälp.
I en dynamisk miljö skapar produktionsservrar hela tiden nya data. DPM ger lugn åt säkerhetskopieringsadministratörer genom att erbjuda skydd på instansnivå som automatiskt hittar och konfigurerar nya data som skapats av arbetsbelastningar. Det betyder att säkerhetskopieringsadministratörerna slipper leta efter nya datainstanser manuellt och lägga till dem i säkerhetskopieringskonfigurationen.
Företagsskalning och central hantering: En enskild DPM-server kan skydda 80 TB produktionsdata eller 100 produktionsservrar. Du kan distribuera DPM Central Console för att hantera upp till 100 DPM-servrar från en central plats. Använd central DPM-rapportering för enkel generering av anpassade rapporter för alla DPM-servrar.
Effektivt skydd av privata moln Oavsett om ditt datacenter i det privata molnet är konfigurerat att köra virtuella Hyper-V-datorer på fristående servrar eller på Windows-servrar med fjärranslutningar till SMB-filresurser på Windows-filservrar kan DPM effektivt säkerhetskopiera virtuella datorer med unik säkerhetskopieringsteknik för virtuella datorer.
Exempelvis identifierar DPM migreringen av virtuella datorer och fortsätter automatiskt att skydda den virtuella datorn, utan någon aktiv inblandning av säkerhetskopieringsadministratören. Om den virtuella datorn migrerar från värd till värd fortsätter samma DPM-server att säkerhetskopiera utan DPM-ändringar eller manuella steg.
Molnintegrerad säkerhetskopiering – DPM är tillräckligt flexibelt för att skydda arbetsbelastningar som distribuerats i ett privat Hyper-V-moln, i Azures offentliga moln eller i ett värdbaserat moln. Företag som kör Microsoft-arbetsbelastningar i Azure kan utnyttja DPM som körs i Azure för att skydda dessa arbetsbelastningar. DPM stöder extern säkerhetskopiering till Azure med hjälp av Azure Backup Service. Azure Backup Service är integrerat i skydds- och återställningsarbetsflödena i DPM, vilket gör det enkelt att hantera inställningar för extern säkerhetskopiering, och att behålla data i många år. Azure Backup är ett alternativ till säkerhetskopiering på band, som kräver extern flytt och bandunderhåll. Nu slipper säkerhetskopieringsadministratörerna allt trassel med bandunderhåll.
Översikt över datadeduplicering
Datadeduplicering introducerades i Windows Server 2012 som en nästa generationens funktion tänkt att ersätta SIS-funktionen (Single-Instance Storage) i Windows Storage Server 2008. Den använder en avancerad algoritm med segment av variabel blockstorlek för att maximera dedupliceringsbesparingen på varje volym. En efterbehandlingsmodell används för att bevara all semantik i filsystemen och för att minimera effekten på prestanda i den primära datasökvägen. Mer information finns i Översikt över datadeduplicering.
Datadedupliceringstjänsten är tänkt att installeras på primära datavolymer utan ytterligare dedikerad maskinvara så att den inte påverkar serverns primära arbetsbelastning. Standardinställningarna är icke-inkräktande eftersom de låter data åldras i fem dagar innan en viss fil behandlas, och har en minsta fördefinierad filstorlek på 32 kB. Implementeringen har utformats för låg minnes- och processoranvändning. Deduplicering kan implementeras för följande arbetsbelastningar
Allmänna filresurser: Publicering och delning av gruppinnehåll, arbetsmappar för användare och mappomdirigering/offlinefiler
Resurser för programvarudistribution: binära filer, avbildningar och uppdateringar för programvara
VHD-bibliotek: Fillagring för virtuella hårddiskar (VHD) för etablering till hypervisorer
VDI-distributioner (endast Windows Server 2012 R2): VDI-distributioner (Virtual Desktop Infrastructure) med Hyper-V
Virtualiserad säkerhetskopiering: Säkerhetskopieringslösningar (som när DPM körs på en virtuell Hyper-V-dator) som sparar säkerhetskopierade data till VHD-/VHDX-filer på en Windows-filserver.
Läs mer om hur du planerar datadeduplicering.
Fördelar för företaget
Du kan spara mycket lagringsutrymme genom att använda deduplicering med DPM. Hur mycket utrymme du sparar med datadeduplicering när du optimerar dina säkerhetskopierade data med DPM beror på vilken typ av data du säkerhetskopierar. En säkerhetskopia av en krypterad databasserver kan exempelvis resultera i minimala utrymmesbesparingar eftersom eventuella dubblettdata döljs i och med krypteringsprocessen. Säkerhetskopieringen av en stor VDI-distribution (Virtual Desktop Infrastructure) kan däremot leda till väldigt stora besparingar, runt 70–90 % eller mer, eftersom det ofta finns stora mängder duplicerade data mellan de virtuella skrivbordsmiljöerna. I konfigurationen som beskrivs i det här avsnittet körde vi en rad testarbetsbelastningar och såg besparingar på mellan 50 och 90 %.
Rekommenderad distribution
När du ska distribuera DPM som en virtuell dator och säkerhetskopiera data till en deduplicerad volym rekommenderar vi följande distributionstopologi:
DPM som körs på en virtuell dator i ett Hyper-V-värdkluster.
DPM-lagring med hjälp av VHD-/VHDX-filer som lagras på en SMB 3.0-resurs på en filserver.
I den här exempeldistributionen har vi konfigurerat filservern som en uppskalad filserver (SOFS) som distribuerats med hjälp av lagringsvolymer konfigurerade från lagringsutrymmespooler som skapats med direktanslutna SAS-enheter. Observera att den här distributionen garanterar prestanda även vid stora volymer.
Tänk på följande:
Det här scenariot stöds för DPM 2012 R2
Scenariot stöds för alla arbetsbelastningar som det går att säkerhetskopiera data med DPM 2012 R2 för.
Alla Windows-filservernoder som innehåller virtuella DPM-hårddiskar och där deduplicering har aktiverats måste köra Windows Server 2012 R2 med Update Rollup November 2014.
Vi ger allmänna rekommendationer och instruktioner för distributionen av scenariot. I maskinvaruspecifika exempel används maskinvaran som distribuerats i Microsoft Cloud Platform System (CPS) som referens.
Testad maskinvara
I det här scenariot lagras säkerhetskopierade data på fjärranslutna SMB 3.0-resurser. De huvudsakliga maskinvarukraven rör därför filservernoderna snarare än Hyper-V-noderna. Följande maskinvarukonfiguration används i CPS för att lagra säkerhetskopierade data och produktionsdata. Observera att den allmänna maskinvaran används både för att lagra säkerhetskopierade data och produktionsdata, och att de enheter som anges i enhetskabinetten endast är de som används för säkerhetskopiering.
Uppskalat filserverkluster med fyra noder
Per nodkonfiguration
2 x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 kärnor, 16 logiska processorer
128 GB 1333 MHz RDIMM-minne
Lagringsanslutningar: 2 portar för SAS, 1 port för 10 GbE iWarp/RDMA
4 JBOD-enhetskabinett
18 diskar i varje JBOD – 16 × 4 TB HDD-diskar + 2 × 800 GB SSD-diskar
Dubbla banor till varje enhet – Multipath I/O-belastningsutjämningsprincip inställd på endast redundans
SSD-diskar konfigurerade för återskrivningscache (WBC) och resten för dedikerade journalenheter
Planera och konfigurera deduplicerade volymer
Nu ska vi titta på hur stora volymerna bör vara för att kunna hantera de deduplicerade VHDX-filerna med DPM-data. I CPS har vi skapat volymer på vardera 7,2 TB. Den optimala volymstorleken beror huvudsakligen på hur mycket och hur ofta data på volymen ändras, och på dataåtkomsthastigheten i diskens underlagringssystem. Det är viktigt att observera att om dedupliceringen inte kan hålla samma tempo som den dagliga dataändringsfrekvensen (dataomsättningen) så sjunker besparingstakten tills bearbetningen kan slutföras. Mer detaljerad information finns i Sizing Volumes for Data Deduplication. Följande allmänna riktlinjer rekommenderas för de deduplicerade volymerna:
Använd paritetsbaserade lagringsutrymmen med kabinettmedvetenhet för flexibilitet och ökad diskanvändning.
Formatera NTFS med 64 kB-allokeringsenheter och stora filpostsegment eftersom det fungerar bättre med dedupliceringens användning av sparse-filer.
I maskinvarukonfigurationen ovan är den rekommenderade volymstorleken 7,2 TB och volymerna konfigureras enligt följande:
Kabinettmedveten 7,2 TB + 1 GB återskrivningscache med dubbel paritet
ResiliencySettingName == Parity
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256KB (prestanda vid dubbel paritet med 64 kB interfoliering är mycket lägre än standardinställningen på 256 kB)
IsEnclosureAware == $true
AllocationUnitSize=64KB
Stor FRS
Skapa en ny virtuell disk i den angivna lagringspoolen enligt följande:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Var och en av dessa volymer måste sedan formateras som:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64KB –UseLargeFRS -Force
I CPS-distributionen konfigureras dessa sedan som CSV:er.
På dessa volymer lagrar DPM en serie VHDX-filer där dina säkerhetskopierade data lagras. Aktivera deduplicering på volymen efter att du har formaterat den, enligt följande:
Enable-DedupVolume –Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Det här kommandot ändrar även följande dedupliceringsinställningar på volymnivå:
Ange UsageType till HyperV: Den här inställningen gör att dedupliceringen bearbetar öppna filer, vilket krävs eftersom VHDX-filerna som används av DPM för att lagra säkerhetskopierade data är öppna när DPM körs på den virtuella datorn.
Inaktivera PartialFileOptimization: Detta gör att dedupliceringen optimerar alla avsnitt i en öppen fil i stället för att söka efter ändrade avsnitt med en minsta ålder.
Ange MinFileAgeDays-parameter till 0: När PartialFileOptimization är inaktiverat ändrar MinFileAgeDays sitt beteende så att dedupliceringen endast tar hänsyn till filer som inte har ändrats under angivet antal dagar. Eftersom vi vill att dedupliceringen ska börja bearbeta säkerhetskopierade data i alla DPM VHDX-filer utan fördröjning måste vi tilldela MinFileAgeDays värdet 0.
Mer information om hur du konfigurerar deduplicering finns i Installera och konfigurera datadeduplicering.
Planera och konfigurera DPM-lagring
För att undvika fragmenteringsproblem och bibehålla effektiviteten allokeras DPM-lagringen med hjälp av VHDX-filer som finns på de deduplicerade volymerna. 10 dynamiska VHDX-filer på vardera 1 TB skapas på varje volym och ansluts till DPM. Observera att en överetablering på 3 TB av lagringsutrymmet görs för att dra fördel av lagringsbesparingarna som dedupliceringen genererar. I takt med att dedupliceringen genererar ytterligare lagringsbesparingar kan nya VHDX-filer skapas på dessa volymer och utnyttja utrymme som sparats in. Vi testade DPM-servern med upp till 30 anslutna VHDX-filer.
Kör följande kommando för att skapa virtuella hårddiskar som du senare lägger till på DPM-servern:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
Lägg sedan till de virtuella hårddiskar du skapat till DPM-servern enligt följande:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool – eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
I det här steget konfigurerar du en lagringspool som den eller de diskar där DPM lagrar repliker och återställningspunkter för skyddade data. Den här poolen är en del av DPM-konfigurationen och är separat från poolen för lagringsutrymmen som används för att skapa datavolymerna som beskrivs i föregående avsnitt. Mer information om DPM-lagringspooler finns i Konfigurera lagringspooler och diskutrymme.
Planera och konfigurera Windows-filserverklustret
På grund av dataomfattningen och storleken på enskilda filer kräver dedupliceringen en särskild uppsättning konfigurationsalternativ för att kunna hantera virtualiserad DPM-lagring. Dessa alternativ är globala för klustret eller klusternoden. Deduplicering måste vara aktiverat och klusterinställningarna måste vara individuellt konfigurerade på varje nod i klustret.
Aktivera deduplicering för Windows-filserverlagring – Dedupliceringsrollen måste vara installerad på alla noder i Windows-filserverklustret. Det gör du genom att köra följande PowerShell-kommando på varje nod i klustret:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Finjustera hur dedupliceringen bearbetar säkerhetskopior – Kör följande PowerShell-kommando för att ange att optimeringen ska starta utan fördröjning och att inga optimera partiella filskrivningar ska optimeras. Observera att skräpinsamlingsjobb (GC) schemaläggs varje vecka som standard och att de var fjärde vecka körs i ”djupt GC”-läge för en mer omfattande och tidskrävande sökning efter data som kan tas bort. För DPM-arbetsbelastningen resulterar detta läge för djupgående skräpinsamling inte i några märkbara vinster, men innebär däremot mindre tid för dedupliceringen att optimera data. Därför väljer vi att inaktivera detta djupa läge.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Finjustera prestanda för storskaliga åtgärder – Kör följande PowerShell-skript för att:
Inaktivera ytterligare bearbetning och I/O när djupgående skräpinsamling körs
Reservera ytterligare minne för hashbearbetning
Aktivera prioritetsoptimering så att stora filer kan defragmenteras direkt
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Dessa inställningar ändrar följande:
HashIndexFullKeyReservationPercent: Det här värdet styr hur mycket av optimeringsjobbets minne som används för befintliga segmenthashvärden, jämfört med nya. Vid stora volymer resulterar 70 % i bättre optimeringsgenomflöde än standardvärdet på 50 %.
EnablePriorityOptimization: Med filer som närmar sig en storlek på 1 TB kan fragmenteringen av en enskild fil ackumulera tillräckligt många fragment för att närma sig gränsen för en enskild fil. Optimeringsbearbetningen konsoliderar dessa fragment och förhindrar att den här gränsen nås. Genom att ange den här registernyckeln lägger dedupliceringen till en till process för att hantera kraftigt fragmenterade deduplicerade filer med hög prioritet.
Planera och konfigurera DPM och dedupliceringsschemat
Både säkerhetskopierings- och dedupliceringsåtgärder är I/O-krävande. Om de körs samtidigt kan den ytterligare belastningen för att växla mellan åtgärderna bli kostsam och resultera i att mindre data säkerhetskopieras eller dedupliceras per dag. Vi rekommenderar att du konfigurerar dedikerade och separata deduplicerings- och säkerhetskopieringsscheman. På så sätt försäkrar du dig om att I/O-trafiken för respektive åtgärd fördelas effektivt under den dagliga systemdriften. Följande riktlinjer rekommenderas för schemaläggning:
Dela upp dagarna i säkerhets- och dedupliceringsintervall som inte överlappar varandra.
Skapa anpassade säkerhetskopieringsscheman.
Skapa anpassade dedupliceringsscheman.
Schemalägg optimering i det dagliga dedupliceringsintervallet.
Skapa dedupliceringsscheman för helger separat, och använd den tiden för skräpinsamlings- och datarensningsjobb.
Du kan skapa DPM-scheman med följande PowerShell-kommando:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime –
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime –DurationInHours
$duration
I den här konfigurationen konfigureras DPM att säkerhetskopiera virtuella datorer mellan 22:00 och 06:00. Dedupliceringen schemaläggs för dagens resterande 16 timmar. Observera att den dedupliceringstid du konfigurerar beror på volymstorleken. Mer information finns i Sizing Volumes for Data Deduplication. Så här konfigurerar du ett 16 timmar långt dedupliceringsintervall från valfri klusternod som börjar kl. 06:00 när säkerhetskopieringsintervallet slutar:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Om säkerhetskopieringsintervallet ändras är det viktigt att även dedupliceringsintervallet ändras så att tiderna inte överlappar varandra. Deduplicerings- och säkerhetskopieringsintervallen måste inte fylla dygnets 24 timmar, men vi rekommenderar starkt att de gör det för att tillåta variationer i bearbetningstiden på grund av förväntade dagliga ändringar i arbetsbelastningen och databearbetningen.
Konsekvenser för säkerhetskopieringsprestanda
När en uppsättning filer har deduplicerats kan det uppstå en mindre prestandakostnad vid åtkomst till filerna. Detta beror på den ytterligare bearbetning som krävs för att komma åt filformatet som används av deduplicerade filer. I det här scenariot är filerna en uppsättning VHDX-filer som används kontinuerligt av DPM under säkerhetskopieringsintervallet. Konsekvensen av att deduplicera dessa filer är att säkerhetskopierings- och återställningsåtgärderna kan ta något längre tid än utan deduplicering. Precis som andra säkerhetskopieringsprodukter är DPM en skrivintensiv arbetsbelastning där läsåtgärder är viktigast i samband med återställningsaktiviteter. Vi rekommenderar följande för att hantera dedupliceringens effekt på säkerhetskopieringens prestanda:
Läs-/återställningsåtgärder: Effekten på läsåtgärder är normalt försumbar och kräver ingen särskild hänsyn eftersom dedupliceringsfunktionen cachelagrar deduplicerade segment.
Skriv-/säkerhetskopieringsåtgärder: Planera för en ökning av säkerhetskopieringstiden om cirka 5 till 10 % när du definierar säkerhetskopieringsintervallet. (Det här är en ökning jämfört med den förväntade säkerhetskopieringstiden när du skriver till volymer som inte dedupliceras.)
Övervakning
Du kan övervaka DPM och datadedupliceringen för att försäkra att:
Tillräckligt diskutrymme etableras för att lagra säkerhetskopieringsdata
DPM-säkerhetskopieringsjobben slutförs som de ska
Dedupliceringen är aktiverad på säkerhetskopieringsvolymerna
Dedupliceringscheman är korrekt angivna
Dedupliceringsbearbetningen slutförs som den ska på en daglig basis
Takten på dedupliceringsbesparingarna motsvarar de antaganden som gjordes under systemkonfigurationen
Dedupliceringsresultatet beror på systemets maskinvarufunktioner (inklusive processorhastighet, I/O-bandbredd, lagringskapacitet), rätt systemkonfiguration, genomsnittlig systembelastning och den dagliga mängden modifierade data.
Du kan övervaka DPM med DPM Central Console. Se Installera Central Console.
Du kan övervaka dedupliceringen för att kontrollera dedupliceringsstatus, besparingstakt och schemastatus genom att köra följande PowerShell-kommandon:
Hämta status:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Hämta besparing:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Hämta schemastatus med hjälp av Get-DedupSchedule-cmdleten.
Övervaka händelser
Genom att övervaka händelseloggen kan du få en bättre inblick i dedupliceringshändelser och dedupliceringsstatusen.
Du kan visa dedupliceringshändelser genom att öppna Utforskaren och gå till Program- och tjänstloggar > Microsoft > Windows > Deduplicering.
Om värdet LastOptimizationResult = 0x00000000 visas i Windows PowerShell-resultatet för Get-DedupStatus |fl betyder det att hela datamängden bearbetades av det föregående optimeringsjobbet. Om inte kunde systemet inte slutföra dedupliceringen och du kan behöva kontrollera konfigurationsinställningarna, t.ex. volymstorleken.
Mer detaljerade cmdlet-exempel finns i Övervaka och rapportera för datadeduplicering.
Övervaka lagringen av säkerhetskopierade data
I vårt konfigurationsexempel är 7,2 TB-volymerna fyllda med 10 TB ”logiska” data (storleken på data när de inte deduplicerats) lagrade i 10 dynamiska VHDX-filer på vardera 1 TB. I takt med att dessa filer ackumulerar ytterligare säkerhetskopierade data börjar de långsamt fylla volymen. Om besparingsprocenten som genereras av dedupliceringen är tillräckligt hög kommer alla 10 filer att nå sin högsta logiska storlek men fortfarande få plats på 7,2 TB-volymen (potentiellt kanske det till och med finns ytterligare utrymme för att allokera fler VHDX-filer som kan användas av DPM-servrar). Men om storleksbesparingarna från dedupliceringen inte är tillräckligt stora kanske utrymmet på volymen tar slut innan VHDX-filerna når sin fulla logiska storlek, och volymen blir full. Vi rekommenderar följande för att undvika att volymer blir fulla:
Var konservativ när det gäller kraven på volymstorlek och lämna utrymme för viss överetablering av lagringsutrymme. Vi rekommenderar att du har en buffert på minst 10 % när du planerar för användningen av lagringsutrymme för säkerhetskopierade data så att det finns utrymme för förväntade variationer i dedupliceringsbesparingar och datasegmentering.
Övervaka volymerna som används för att lagra säkerhetskopierade data för att försäkra dig om att utrymmesanvändningen och dedupliceringsbesparingstakten ligger på förväntade nivåer.
Om volymen blir full leder det till följande symptom:
Den virtuella DPM-datorn försätts i ett pauskritiskt tillstånd och inga fler jobb kan skickas av den virtuella datorn.
Alla säkerhetskopieringsjobb som använder VHDX-filerna på den fulla volymen misslyckas.
För att återställa systemet från detta tillstånd till normal drift kan du etablera ytterligare lagringsutrymme och frigöra utrymme genom att migrera lagringen på den virtuella DPM-datorn eller dess VHDX:
Stoppa DPM-servern som äger VHDX-filerna på den fulla säkerhetskopieringsresursen.
Skapa en ytterligare volym och säkerhetskopieringsresurs med samma konfiguration och inställningar som används för de befintliga resurserna, inklusive inställningar för NTFS och deduplicering.
Migrera lagring för DPM-serverdatorn och migrera minst en VHDX-fil från den fulla säkerhetskopieringsresursen till den nya säkerhetskopieringsresursen du skapade i steg 2.
Kör ett skräpinsamlingsjobb (GC) för datadeduplicering på källsäkerhetskopieringsresursen som var full. GC-jobbet bör lyckas och återvinna det lediga utrymmet.
Starta om den virtuella DPM-serverdatorn.
En DPM-konsekvenskontroll utlöses under nästa säkerhetskopieringsintervall för alla datakällor som tidigare misslyckats.
Alla säkerhetskopieringsjobb bör lyckas.
Sammanfattning
Kombinationen av deduplicering och DPM ger stora utrymmesbesparingar. Detta innebär högre kvarhållningsgrad, mer frekventa säkerhetskopieringar och bättre total ägandekostnad för DPM-distributionen. Riktlinjerna och rekommendationerna i det här dokumentet ger dig de verktyg och den kunskap du behöver för att konfigurera deduplicering för DPM-lagring och hjälper dig att själv se fördelarna i din egen distribution.
Vanliga frågor
F: VHDX-filer för DPM måste vara 1 TB stora. Betyder det att DPM inte kan säkerhetskopiera en virtuell dator, SharePoint- eller SQL-databas eller en filvolym som är större än 1 TB?
S: Nej. DPM aggregerar flera volymer i en för att lagra säkerhetskopior. Det betyder att filstorleken på 1 TB inte är kopplad till storleken på de datakällor som DPM kan säkerhetskopiera.
F: Det verkar som VHDX-filer för DPM-lagring måste distribueras på fjärranslutna SMB-filresurser. Vad händer om jag lagrar de säkerhetskopierade VHDX-filerna på dedupliceringsaktiverade volymer i samma system där den virtuella DPM-datorn körs?
S: Som vi nämnt ovan är DPM, Hyper-V och deduplicering lagrings- och beräkningsintensiva aktiviteter. När alla tre kombineras i samma system kan det leda till I/O- och processintensiva aktiviteter som kan inverka negativt på Hyper-V och dess virtuella datorer. Om du testar att konfigurera DPM på en virtuell dator med lagringsvolymerna för säkerhetskopiering på samma dator är det viktigt att du övervakar prestanda noga för att försäkra dig om att det finns tillräcklig I/O-bandbredd och beräkningskapacitet för att köra alla tre aktiviteter på samma dator.
F: Ni rekommenderar dedikerad, separat deduplicering och säkerhetskopieringsintervaller. Varför kan jag inte aktivera deduplicering medan DPM säkerhetskopierar? Jag behöver säkerhetskopiera min SQL-databas var 15:e minut.
S: Dedupliceringen och DPM är lagringsintensiva aktiviteter och det kan vara ineffektivt och inverka negativt på I/O att köra båda samtidigt. Därför, om du behöver skydda arbetsbelastningar oftare än en gång om dagen (t.ex. SQL Server var 15:e minut) och om du vill köra dedupliceringen samtidigt, måste du se till att det finns tillräckligt mycket I/O-bandbredd och datorkapacitet för att undvika negativa effekter på resurser.
F: Baserat på konfigurationen som beskrivs här måste DPM köra på en virtuell dator. Varför kan jag inte aktivera deduplicering på skuggkopie- och replikvolymer direkt i stället för på VHDX-filer?
S: Dedupliceringen deduplicerar per volym och körs på enskilda filer. Eftersom dedupliceringen optimerar på filnivå är det inte utformat för att stödja VolSnap-tekniken som DPM använder för att lagra säkerhetskopieringsdata. När DPM körs på en virtuell dator mappar Hyper-V DPM-volymaktiviteterna med VHDX-filnivån så att dedupliceringen kan optimera säkerhetskopierade data och ge större lagringsbesparingar.
F: I exempelkonfigurationen ovan skapades bara volymer på 7,2 TB. Kan jag skapa större eller mindre volymer?
S: Dedupliceringen kör en tråd per volym. Allteftersom volymens storlek ökar behöver dedupliceringen mer tid för att slutföra optimeringen. På små volymer finns det å andra sidan färre data där det går att hitta dubblettsegment, vilket kan leda till mindre besparingar. Därför rekommenderar vi att du finjusterar volymstorleken baserat på den totala omsättningen och systemets maskinvarukapacitet för optimala besparingar. Mer detaljerad information om hur du bestämmer volymstorleken för deduplicering finns i Sizing Volumes for Deduplication in Windows Server. Mer detaljerad information om hur du bestämmer volymstorleken för deduplicering finns i Sizing Volumes for Data Deduplication.