DPM-opslag ontdubbelen
System Center Data Protection Manager (DPM) kan gegevensontdubbeling gebruiken.
Gegevensontdubbeling (ontdubbeling) zoekt en verwijdert dubbele gegevens in een volume en zorgt ervoor dat de gegevens correct en volledig blijven. Meer te weten komen over ontdubbelingsplanning.
Deduplicatie vermindert het opslagverbruik. Hoewel de hoeveelheid redundantie voor een set gegevens afhankelijk is van de werkbelasting en het gegevenstype, tonen back-upgegevens bij gebruik van ontdubbeling aanzienlijke besparingen.
Gegevensredundantie kan verder worden verminderd met deduplicatie wanneer de back-up van gegevens van vergelijkbare typen en workloads tegelijkertijd wordt verwerkt.
Deduplicatie is ontworpen om te worden geïnstalleerd op primaire gegevensvolumes zonder extra toegewezen hardware, zodat het geen invloed uitoefent op de primaire werkbelasting van de server. De standaardinstellingen zijn niet-opdringerig, omdat ze toestaan dat gegevens vijf dagen verouderen voordat een bepaald bestand wordt verwerkt en een standaard minimale bestandsgrootte van 32 kB hebben. De implementatie is ontworpen voor weinig geheugen en CPU-gebruik.
Dedup kan worden geïmplementeerd op de volgende workloads:
Algemene bestandsdeling: het groeperen van publicatie en deling van inhoud, gebruikers thuismappen, en mapomleiding/offlinebestanden.
Shares voor software-implementatie: binaire softwarebestanden, installatiekopieën en updates
VHD-bibliotheken: Virtuele harde schijf (VHD) bestandsopslag voor voorziening aan hypervisors
VDI-implementaties (alleen Windows Server 2012 R2): VDI-implementaties (Virtual Desktop Infrastructure) met behulp van Hyper-V
Gevirtualiseerde back-up: back-upoplossingen (zoals DPM die worden uitgevoerd op een Hyper-V virtuele machine) waarmee back-upgegevens worden opgeslagen in VHD-/VHDX-bestanden op een Windows-bestandsserver
DPM en deduplicatie
Het gebruik van deduplicatie met DPM kan leiden tot grote besparingen. De hoeveelheid ruimte die wordt bespaard door ontdubbeling bij het optimaliseren van DPM-back-upgegevens, is afhankelijk van het type gegevens waarvan een back-up wordt gemaakt. Een back-up van een versleutelde databaseserver kan bijvoorbeeld leiden tot minimale besparingen omdat dubbele gegevens worden verborgen door het versleutelingsproces. Een back-up van een grote VDI-implementatie (Virtual Desktop Infrastructure) kan echter grote besparingen opleveren in de orde van grootte van 70-90+%, omdat er meestal een grote hoeveelheid gegevensduplicatie tussen de virtuele bureaubladomgevingen is. In de configuratie die in het artikel wordt beschreven, hebben we verschillende testworkloads uitgevoerd en hebben we besparingen gezien tussen 50% en 90%.
Om deduplicatie te gebruiken voor DPM-opslag, moet DPM draaien op een Hyper-V virtuele machine en back-upgegevens opslaan in VHD's in gedeelde mappen met ingeschakelde gegevensdeduplicatie.
Aanbevolen implementatie
Als u DPM wilt implementeren als een virtuele machine voor het maken van back-ups van gegevens naar een dedupl-volume, raden we de volgende implementatietopologie aan:
DPM wordt uitgevoerd op een virtuele machine in een Hyper-V hostcluster.
DPM-opslag met VHD-/VHDX-bestanden die zijn opgeslagen op een SMB 3.0-share op een bestandsserver.
Voor ons testvoorbeeld hebben we de bestandsserver geconfigureerd als een scaled-out bestandsserver (SOFS) die is geïmplementeerd met behulp van opslagvolumes die zijn geconfigureerd uit Storage Spaces-pools, opgebouwd met rechtstreeks aangesloten SAS-stations. Deze implementatie zorgt voor prestaties op schaal.
Houd er rekening mee dat:
Deze implementatie wordt ondersteund voor DPM 2012 R2 en hoger en voor alle workloadgegevens waarvan een back-up kan worden gemaakt door DPM 2012 R2 en hoger.
Alle Windows-bestandsserverknooppunten waarop de virtuele harde schijven van DPM zich bevinden en waarop deduplicatie wordt ingeschakeld, moeten draaien op Windows Server 2012 R2 met updatepakket van november 2014 of hoger.
We geven algemene aanbevelingen en instructies voor de implementatie van het scenario. Wanneer hardwarespecifieke voorbeelden worden gegeven, wordt de hardware die is geïmplementeerd in het Microsoft Cloud Platform System (CPS) gebruikt ter referentie.
In dit voorbeeld worden externe SMB 3.0-shares gebruikt om de back-upgegevens op te slaan, dus primaire hardwarevereisten centreren rond de bestandsserverknooppunten in plaats van de Hyper-V-knooppunten. De volgende hardwareconfiguratie wordt gebruikt in CPS voor back-up- en productieopslag. De algehele hardware wordt gebruikt voor zowel back-up- als productieopslag, maar het aantal stations dat in de stationsbehuizingen wordt vermeld, zijn alleen stations die worden gebruikt voor back-up.
Scale-out bestandsservercluster met vier knooppunten
Configuratie per knooppunt
2x Intel(R) Xeon(R) CPU E5-2650 0 @ 2,00 GHz, 2001 MHz, 8 kernen, 16 logische processoren
128 GB 1333 MHz RDIMM-geheugen
Opslagverbindingen: 2 poorten van SAS, 1 poort van 10 GbE iWarp/RDMA
Vier JBOD-behuizingen
18 schijven in elke JBOD - 16 x 4 TB HDD's + 2 x 800 GB SSD's
Dubbele verbinding naar elke schijf - Multipath I/O-taakverdelingsbeleid ingesteld op alleen failover
SSD's die zijn geconfigureerd voor write-back-cache (WBC) en de rest voor toegewezen logboekstations
Ontdubbelingsvolumes instellen
Laten we eens kijken hoe grote volumes moeten zijn om de ontdubbelde VHDX-bestanden met DPM-gegevens te ondersteunen. In CPS hebben we volumes van elk 7,2 TB gemaakt. De optimale volumegrootte is voornamelijk afhankelijk van hoeveel en hoe vaak de gegevens op het volume veranderen, en op de doorvoersnelheden voor gegevenstoegang van het subsysteem voor schijfopslag. Het is belangrijk te weten dat als de ontdubbelingsverwerking het aantal dagelijkse gegevenswijzigingen (het verloop) niet kan bijhouden, het besparingspercentage afneemt totdat de verwerking kan worden voltooid. Zie Groottevolumes voor gegevensontdubbelingvoor meer gedetailleerde informatie. De volgende algemene richtlijnen worden aanbevolen voor ontdubbelingsvolumes:
Gebruik Pariteit Opslagruimten met behuizingbewustzijn voor veerkracht en verbeterd schijfgebruik.
Formatteer NTFS met toewijzingseenheden van 64 kB en grote bestandsrecordsegmenten om beter te werken met ontdubbelingsgebruik van sparse-bestanden.
In de hardwareconfiguratie boven de aanbevolen volumegrootte van 7,2 TB-volumes worden volumes als volgt geconfigureerd:
Behuizingsbewuste dubbele pariteit 7,2 TB + 1 GB Write-back-cache
ResiliencySettingName == Pariteit
PhysicalDiskRedundancy == 2
NumberOfColumns == 7
Interleave == 256 kB (Prestaties van dubbele pariteit bij interleave van 64 kB is veel lager dan bij de standaard interleave van 256 kB)
IsEnclosureAware == $true
AllocationUnitSize=64 KB
Grote FRS
Stel als volgt een nieuwe virtuele schijf in de opgegeven opslaggroep in:
New-VirtualDisk -Size 7.2TB -PhysicalDiskRedundancy 2 -ResiliencySettingName Parity -StoragePoolFriendlyName BackupPool -FriendlyName BackupStorage -NumberOfColumns 7 -IsEnclosureAware $true
Elk van deze volumes moet vervolgens worden opgemaakt als:
Format-Volume -Partition <volume> -FileSystem NTFS -AllocationUnitSize 64 KB -UseLargeFRS -Force
In de CPS-implementatie worden deze vervolgens geconfigureerd als CSV's.
Binnen deze volumes slaat DPM een reeks VHDX-bestanden op om de back-upgegevens op te slaan. Schakel deduplicatie op het volume in nadat het als volgt is geformatteerd:
Enable-DedupVolume -Volume <volume> -UsageType HyperV Set-DedupVolume -Volume <volume> -MinimumFileAgeDays 0 -OptimizePartialFiles:$false
Met deze opdracht worden ook de volgende instellingen voor ontdubbeling op volumeniveau gewijzigd:
Stel UsageType in op HyperV-: dit resulteert in ontdubbelingsverwerking van geopende bestanden, die vereist zijn omdat de VHDX-bestanden die worden gebruikt voor back-upopslag door DPM open blijven terwijl DPM wordt uitgevoerd op de virtuele machine.
PartialFileOptimization uitschakelen: dit zorgt ervoor dat alle secties van een geopend bestand worden geoptimaliseerd, in plaats van te scannen op gewijzigde secties met een minimale leeftijd.
Stel de parameter MinFileAgeDays in op 0: Wanneer PartialFileOptimization is uitgeschakeld, verandert het gedrag van MinFileAgeDays zodat deduplicatie alleen bestanden overweegt die in dat aantal dagen niet zijn gewijzigd. Omdat we willen dat deduplicatie de back-upgegevens in alle DPM VHDX-bestanden zonder vertraging gaat verwerken, moeten we MinFileAgeDays instellen op 0.
Zie Gegevensduplicatie installeren en configurerenvoor meer informatie over het instellen van ontdubbeling.
DPM-opslag instellen
Om fragmentatieproblemen te voorkomen en efficiëntie te behouden, wordt DPM-opslag toegewezen met behulp van VHDX-bestanden die zich op de ontdubbelde volumes bevinden. Er worden tien dynamische VHDX-bestanden van 1 TB gemaakt op elk volume en gekoppeld aan DPM. Bovendien wordt 3 TB aan overprovisionering van opslag toegepast om te profiteren van de besparingen op opslag die mogelijk wordt gemaakt door ontdubbeling. Doordat deduplicatie extra opslagbesparingen oplevert, kunnen nieuwe VHDX-bestanden op deze volumes worden gemaakt om de bespaarde ruimte te benutten. We hebben de DPM-server getest met maximaal 30 VHDX-bestanden die eraan zijn gekoppeld.
Voer de volgende opdracht uit om virtuele harde schijven te maken die later worden toegevoegd aan de DPM-server:
New-SCVirtualDiskDrive -Dynamic -SCSI -Bus $Bus -LUN $Lun -JobGroup $JobGroupId -VirtualHardDiskSizeMB 1048576 -Path $Using:Path -FileName <VHDName>
Vervolgens zijn de gemaakte virtuele harde schijven als volgt toegevoegd aan de DPM-server:
Import-Module "DataProtectionManager" Set-StorageSetting -NewDiskPolicy OnlineAll $dpmdisks = @() $dpmdisks = Get-DPMDisk -DPMServerName $env:computername | ? {$_.CanAddToStoragePool - eq $true -and $_.IsInStoragePool -eq $false -and $_.HasData -eq $false} Add-DPMDisk $dpmdisks
Met deze stap configureert u een opslaggroep als de schijf of schijven waarop DPM replica's en herstelpunten voor beveiligde gegevens opslaat. Deze pool maakt deel uit van de DPM-configuratie en staat los van de Opslagruimten-pool die wordt gebruikt om de gegevensvolumes te maken die in de vorige sectie worden beschreven. Zie Schijfopslag en opslaggroepen configurerenvoor meer informatie over DPM-opslaggroepen.
Het Windows-bestandsservercluster instellen
Dedup vereist een speciale set configuratieopties ter ondersteuning bij gevirtualiseerde DPM-opslag vanwege de hoeveelheid gegevens en de grootte van afzonderlijke bestanden. Deze opties zijn globaal voor het cluster of het clusterknooppunt. Ontdubbeling moet zijn ingeschakeld en de clusterinstellingen moeten afzonderlijk worden geconfigureerd op elk knooppunt van het cluster.
Ontdubbeling inschakelen op Windows-bestandsserveropslag: de functie Ontdubbeling moet worden geïnstalleerd op alle knooppunten van het Windows-bestandsservercluster. Voer hiervoor de volgende PowerShell-opdracht uit op elk knooppunt van het cluster:
Install-WindowsFeature -Name FileAndStorage-Services,FS-Data-Deduplication -ComputerName <node name>
Verwerking van ontdubbeling afstemmen voor back-upgegevensbestanden: voer de volgende PowerShell-opdracht uit om optimalisatie zonder vertraging te starten en niet om gedeeltelijke schrijfbewerkingen van bestanden te optimaliseren. Standaard worden GC-taken (Garbagecollection) elke week gepland en elke vierde week wordt de GC-taak uitgevoerd in de modus 'diepe GC' voor een uitgebreidere en tijdrovende zoekopdracht naar gegevens die moeten worden verwijderd. Voor de DPM-workload resulteert deze 'diepe GC'-modus niet in eventuele appreciatieve winsten en vermindert de hoeveelheid tijd waarin ontdubbeling gegevens kan optimaliseren. Daarom schakelen we deze diepe modus uit.
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name DeepGCInterval -Value 0xFFFFFFFF
Prestaties afstemmen voor grootschalige bewerkingen- Voer het volgende PowerShell-script uit om:
Extra verwerking en I/O uitschakelen wanneer diepe garbagecollection wordt uitgevoerd
Extra geheugen reserveren voor hashverwerking
Prioriteitsoptimalisatie inschakelen om onmiddellijke defragmentatie van grote bestanden mogelijk te maken
Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name HashIndexFullKeyReservationPercent -Value 70 Set-ItemProperty -Path HKLM:\Cluster\Dedup -Name EnablePriorityOptimization -Value 1
Met deze instellingen wijzigt u het volgende:
HashIndexFullKeyReservationPercent: Deze waarde bepaalt hoeveel van het geheugen van de optimalisatietaak wordt gebruikt voor bestaande segmenthashes versus nieuwe segmenthashes. Op grote schaal resulteert 70% in een betere optimalisatiedoorvoer dan de standaardwaarde van 50%.
EnablePriorityOptimization: met bestanden die 1 TB naderen, kan fragmentatie van één bestand voldoende fragmenten verzamelen om de limiet per bestand te benaderen. Optimalisatieverwerking consolideert deze fragmenten en voorkomt dat deze limiet wordt bereikt. Door deze registersleutel in te stellen, zal deduplicatie een extra proces toevoegen om sterk gefragmenteerde ontdubbelde bestanden met hoge prioriteit te verwerken.
DPM en ontdubbelingsplanning instellen
Zowel back-up- als ontdubbelingsbewerkingen zijn I/O-intensief. Als ze tegelijkertijd zouden worden uitgevoerd, kan extra overhead om tussen de bewerkingen te schakelen kostbaar zijn en resulteren in minder dagelijkse back-ups of minder gegevens die ontdubbeld worden. We raden u aan toegewezen en afzonderlijke ontdubbelings- en back-upvensters te configureren. Dit zorgt ervoor dat het I/O-verkeer voor elk van deze bewerkingen efficiënt wordt gedistribueerd tijdens de dagelijkse systeembewerking. De aanbevolen richtlijnen voor planning zijn:
Splits dagen op in niet-overlappende back-up- en ontdubbelingsvensters.
Aangepaste back-upschema's opzetten.
Aangepaste schema's voor het verwijderen van duplicaten configureren.
Planningsoptimalisatie in het dagelijkse ontdubbelingsvenster.
Stel weekenddeduplicatieschema's afzonderlijk in en gebruik die tijd voor vuilnisophaaldiensten en opschoontaken.
U kunt DPM-planningen instellen met de volgende PowerShell-opdracht:
Set-DPMConsistencyCheckWindow -ProtectionGroup $mpg -StartTime $startTime -
DurationInHours $duration
Set-DPMBackupWindow -ProtectionGroup $mpg -StartTime $startTime -DurationInHours
$duration
In deze configuratie is DPM geconfigureerd voor het maken van back-ups van virtuele machines tussen 10:00 en 18:00 uur. Ontdubbeling wordt gepland voor de resterende 16 uur van de dag. De werkelijke ontdubbelingstijd die u configureert, is afhankelijk van de volumegrootte. Zie Groottevolumes voor gegevensontdubbelingvoor meer informatie. Een ontdubbelingsvenster van 16 uur vanaf 6:00 uur nadat het back-upvenster is beëindigd, wordt als volgt geconfigureerd vanaf elk afzonderlijk clusterknooppunt:
#disable default schedule
Set-DedupSchedule * -Enabled:$false
#Remainder of the day after an 8 hour backup window starting at 10pm $dedupDuration = 16
$dedupStart = "6:00am"
#On weekends GC and scrubbing start one hour earlier than optimization job.
# Once GC/scrubbing jobs complete, the remaining time is used for weekend
# optimization.
$shortenedDuration = $dedupDuration - 1
$dedupShortenedStart = "7:00am"
#if the previous command disabled priority optimization schedule
#reenable it
if ((Get-DedupSchedule -name PriorityOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name PriorityOptimization -Enabled:$true
}
#set weekday and weekend optimization schedules
New-DedupSchedule -Name DailyOptimization -Type Optimization -DurationHours $dedupDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -Days Monday,Tuesday,Wednesday,Thursday,Friday
New-DedupSchedule -Name WeekendOptimization -Type Optimization -DurationHours $shortenedDuration -Memory 50 -Priority Normal -InputOutputThrottleLevel None -Start $dedupShortenedStart -Days Saturday,Sunday
#re-enable and modify scrubbing and garbage collection schedules
Set-DedupSchedule -Name WeeklyScrubbing -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Sunday
Set-DedupSchedule -Name WeeklyGarbageCollection -Enabled:$true -Memory 50 -DurationHours $dedupDuration -Priority Normal -InputOutputThrottleLevel None -Start $dedupStart -StopWhenSystemBusy:$false -Days Saturday
#disable background optimization
if ((Get-DedupSchedule -name BackgroundOptimization -ErrorAction SilentlyContinue) -ne $null)
{
Set-DedupSchedule -Name BackgroundOptimization -Enabled:$false
}
Wanneer het back-upvenster wordt gewijzigd, is het essentieel dat het ontdubbelingsvenster samen met het venster wordt gewijzigd, zodat ze niet overlappen. Het ontdubbelings- en back-upvenster hoeft de volledige 24 uur van de dag niet vol te vullen; Het wordt echter ten zeerste aanbevolen om variaties in verwerkingstijd mogelijk te maken vanwege verwachte dagelijkse wijzigingen in werkbelastingen en gegevensverloop.
Gevolgen voor back-up prestaties
Nadat een set bestanden is ontdubbeld, kunnen er lichte prestatiekosten zijn bij het openen van de bestanden. Dit komt door de extra verwerking die nodig is voor toegang tot de bestandsindeling die wordt gebruikt door ontdubbelde bestanden. In dit scenario zijn de bestanden een set VHDX-bestanden die continu worden gebruikt door DPM tijdens de back-up periode. Het effect van het ontdubbelen van deze bestanden betekent dat de back-up- en herstelbewerkingen iets langzamer kunnen zijn dan zonder ontdubbeling. Net als bij elk back-upproduct is DPM een werkbelasting met veel schrijfbewerkingen, waarbij leesbewerkingen het belangrijkst zijn tijdens herstelbewerkingen. De aanbevelingen voor het aanpakken van de gevolgen voor back-upprestaties door ontdubbeling zijn:
Lees-/herstelbewerkingen: Effecten op leesbewerkingen zijn meestal te verwaarlozen en vereisen geen speciale overwegingen omdat de ontdubbelingsfunctie ontdubbelde brokken in de cache opslaat.
Schrijf-/back-upbewerkingen: plan een toename van de back-uptijd van 5-10% bij het definiëren van het back-upvenster. (Dit is een toename ten opzichte van de verwachte back-uptijd bij het schrijven naar niet-ontdubbelde volumes.)
Bewaking
DPM en gegevensontdubbeling kunnen worden bewaakt om ervoor te zorgen dat:
Voldoende schijfruimte is ingericht om de back-upgegevens op te slaan
DPM-back-uptaken worden normaal uitgevoerd
Ontdubbeling is ingeschakeld op de back-upvolumes
Ontdubbelingsschema's zijn correct ingesteld
Dagelijks wordt de deduplicatieverwerking normaal voltooid.
Besparingspercentage voor ontdubbeling komt overeen met veronderstellingen voor systeemconfiguratie
Het succes van ontdubbeling is afhankelijk van de algehele hardwaremogelijkheden van het systeem (inclusief CPU-verwerkingssnelheid, I/O-bandbreedte, opslagcapaciteit), juiste systeemconfiguratie, de gemiddelde systeembelasting en de dagelijkse hoeveelheid gewijzigde gegevens.
U kunt DPM bewaken met behulp van de DPM Central-console. Zie Central Console installeren.
U kunt deduplicatie controleren om de deduplicatiestatus, de besparingsratio en de planningsstatus te controleren met behulp van de volgende PowerShell-opdrachten:
Status ophalen:
PS C:\> Get-DedupStatus
FreeSpace SavedSpace OptimizedFiles InPolicyFiles Volume
-------------- ---------- -------------- ------------- ------
280.26 GB 529.94 GB 36124 36125 X:
151.26 GB 84.19 GB 43017 43017 Z:
Besparingen krijgen:
PS C:\> Get-DedupVolume
Enabled SavedSpace SavingsRate Volume
------- ---------- ----------- ------
True 529.94 GB 74 % X:
Haal de planningsstatus op met behulp van de Get-DedupSchedule-cmdlet.
Gebeurtenissen bewaken
Het bewaken van het gebeurtenislogboek kan helpen bij het begrijpen van deduplicatie-gebeurtenissen en status.
Als u deduplicatie-evenementen wilt weergeven, gaat u in Verkennernaar Toepassings- en services-logboeken>Microsoft>Windows>Deduplication.
Als de waarde LastOptimizationResult = 0x00000000 wordt weergegeven in de Get-DedupStatus |fl Windows PowerShell-resultaten, is de volledige gegevensset verwerkt door de vorige optimalisatietaak. Zo niet, dan kan het systeem de ontdubbelingsverwerking niet voltooien en wilt u mogelijk de configuratie-instellingen controleren, bijvoorbeeld volumegrootte.
Voor meer gedetailleerde voorbeelden van cmdlets, zie Monitor en Rapporteren voor Gegevensdeduplicatie.
Back-upopslag bewaken
In ons configuratievoorbeeld worden de volumes van 7,2 TB gevuld met 10 TB aan 'logische' gegevens (de grootte van de gegevens wanneer deze niet worden ontdubbeld) die zijn opgeslagen in dynamische VHDX-bestanden van 10 x 1 TB. Naarmate deze bestanden extra back-upgegevens verzamelen, vullen ze het volume langzaam op. Als het besparingspercentage dat het gevolg is van ontdubbeling hoog genoeg is, kunnen alle 10 bestanden hun maximale logische grootte bereiken en nog steeds in het volume van 7,2 TB passen (mogelijk is er zelfs extra ruimte om extra VHDX-bestanden toe te wijzen voor DPM-servers die moeten worden gebruikt). Maar als de besparingen van ontdubbeling niet voldoende zijn, kan de ruimte op het volume uitlopen voordat de VHDX-bestanden hun volledige logische grootte bereiken en het volume vol is. Om te voorkomen dat volumes vol raken, raden we het volgende aan:
Wees conservatief met de vereisten voor volumegrootte en sta wat overprovisioning van opslagruimte toe. Het is raadzaam om een buffer van ten minste 10% te voorzien bij het plannen voor het gebruik van opslag voor back-ups om verwachte variaties in besparing door ontdubbeling en gegevensverandering mogelijk te maken.
Bewaak de volumes die worden gebruikt voor back-upopslag om ervoor te zorgen dat de besparingen voor ruimtegebruik en ontdubbeling op verwachte niveaus zijn.
Als het volume vol raakt, zijn de volgende symptomen het resultaat:
De virtuele DPM-machine zal in een pauze-kritieke toestand worden geplaatst en er kunnen geen verdere back-uptaken door die VM worden uitgevoerd.
Alle back-uptaken die gebruikmaken van de VHDX-bestanden op het volledige volume mislukken.
Als u wilt herstellen van deze voorwaarde en het systeem naar normale werking wilt herstellen, kunt u extra opslag inrichten en kan een opslagmigratie van de virtuele DPM-machine of de VHDX ervan worden uitgevoerd om ruimte vrij te maken:
Stop de DPM-server die eigenaar is van de VHDX-bestanden op de volledige back-upshare.
Maak een extra volume- en back-upshare met dezelfde configuratie en instellingen als die worden gebruikt voor de bestaande shares, inclusief instellingen voor NTFS en ontdubbeling.
Migreer storage- voor de virtuele DPM Server-machine en migreer ten minste één VHDX-bestand van de volledige back-upshare naar de nieuwe back-upshare die u in stap 2 hebt gemaakt.
Voer een gegevensverwijderingstaak voor deduplicatie van gegevens (Garbage Collection) uit op de bronbackupshare die vol was. De GC-taak moet slagen en de vrije ruimte vrijmaken.
Start de virtuele DPM Server-machine opnieuw op.
Een DPM-consistentiecontroletaak wordt geactiveerd tijdens het volgende back-upvenster voor alle gegevensbronnen die eerder zijn mislukt.
Alle back-uptaken moeten nu slagen.
Samenvatting
De combinatie van ontdubbeling en DPM biedt aanzienlijke ruimtebesparingen. Hierdoor kunnen hogere retentiepercentages, frequentere back-ups en betere TCO worden gebruikt voor de DPM-implementatie. De richtlijnen en aanbevelingen in dit document moeten u voorzien van de hulpprogramma's en kennis voor het configureren van ontdubbeling voor DPM-opslag en de voordelen voor uzelf in uw eigen implementatie bekijken.
Veelgestelde vragen
Q: DPM VHDX-bestanden moeten 1 TB groot zijn. Betekent dit dat DPM geen back-up kan maken van een VIRTUELE machine of SharePoint of SQL DB of bestandsvolume van grootte > 1 TB?
A: Nee. DPM voegt meerdere volumes samen in één om back-ups op te slaan. De bestandsgrootte van 1 TB heeft dus geen gevolgen voor gegevensbrongrootten waar DPM een back-up van kan maken.
Q: Het lijkt erop dat VHDX-bestanden voor DPM-opslag alleen op externe SMB-bestandsshares moeten worden geïmplementeerd. Wat gebeurt er als ik back-up-VHDX-bestanden opsla op volumes met ontdubbeling op hetzelfde systeem waar de virtuele DPM-machine draait?
A: Zoals hierboven besproken, zijn DPM, Hyper-V en ontdubbeling opslag- en rekenintensieve bewerkingen. Het combineren van alle drie deze in één systeem kan leiden tot I/O- en procesintensieve bewerkingen die Hyper-V en de bijbehorende VM's kunnen verhongeren. Als u besluit te experimenteren met het configureren van DPM in een VIRTUELE machine met de back-upopslagvolumes op dezelfde computer, moet u de prestaties zorgvuldig bewaken om ervoor te zorgen dat er voldoende I/O-bandbreedte en rekencapaciteit is om alle drie de bewerkingen op dezelfde machine te onderhouden.
Q: U raadt speciale, afzonderlijke ontdubbelings- en back-upvensters aan. Waarom kan ik deduplicatie niet inschakelen terwijl DPM een back-up maakt? Ik moet elke 15 minuten een back-up maken van mijn SQL-database.
A: Deduplicatie en DPM zijn opslag-intensieve bewerkingen en wanneer ze tegelijkertijd worden uitgevoerd, kunnen ze inefficiënt zijn en leiden tot I/O-tekort. Om workloads meer dan één keer per dag te beschermen (bijvoorbeeld SQL Server om de 15 minuten) en tegelijkertijd deduplicatie in te schakelen, moet u ervoor zorgen dat er voldoende I/O-bandbreedte en computercapaciteit zijn om resourcehongering te voorkomen.
Q: Op basis van de beschreven configuratie moet DPM worden uitgevoerd op een virtuele machine. Waarom kan ik ontdubbeling niet rechtstreeks inschakelen op replicavolumes en schaduwkopievolumes in plaats van op VHDX-bestanden?
A: Deduplicatie voert per volume deduplicatie uit op afzonderlijke bestanden. Omdat ontdubbeling op bestandsniveau wordt geoptimaliseerd, is het niet ontworpen ter ondersteuning van de VolSnap-technologie die DPM gebruikt om de back-upgegevens op te slaan. Door DPM uit te voeren op een virtuele machine, wijst Hyper-V de DPM-volumebewerkingen toe aan het VHDX-bestandsniveau, waardoor deduplicatie de back-upgegevens kan optimaliseren en grotere opslagbesparingen kan bieden.
Q: De bovenstaande voorbeeldconfiguratie heeft slechts 7,2 TB-volumes gemaakt. Kan ik grotere of kleinere volumes maken?
A: Dedup draait één thread per volume. Naarmate de volumegrootte toeneemt, neemt deduplicatie meer tijd in beslag om de optimalisatie te voltooien. Aan de andere kant, met kleine volumes zijn er minder gegevens waarin dubbele stukken kunnen worden gevonden, wat kan leiden tot minder besparingen. Het is dus raadzaam om de volumegrootte af te stemmen op basis van het totale verloop en de hardwaremogelijkheden van het systeem voor optimale besparingen. Meer gedetailleerde informatie over het bepalen van volumegrootten die worden gebruikt met ontdubbeling vindt u in groottevolumes voor ontdubbeling in Windows Server. Zie Volumematen voor gegevensontdubbelingvoor meer gedetailleerde informatie over het vaststellen van volumegrootten die worden gebruikt met ontdubbeling.