Exempelarbetsflöde för att förbereda hårddiskar för ett importjobb
Den här artikeln beskriver steg för steg hur du förbereder enheter för ett importjobb.
Exempeldata
I det här exemplet importeras följande data till ett Azure Storage-konto med namnet mystorageaccount
:
Location | Description | Datastorlek |
---|---|---|
H:\Video\ | En samling videor | 12 TB |
H:\Photo\ | En samling foton | 30 GB |
K:\Temp\FavoriteMovie.ISO | En avbildning av en disk med™ Ray | 25 GB |
\\bigshare\john\music\ | En samling musikfiler på en nätverksresurs | 10 GB |
Storage-kontomål
Importjobbet importerar data till följande mål i lagringskontot:
Källa | Virtuell målkatalog eller blob |
---|---|
H:\Video\ | video/ |
H:\Photo\ | photo/ |
K:\Temp\FavoriteMovie.ISO | favorite/FavoriteMovies.ISO |
\\bigshare\john\music\ | musik |
Med den här mappningen importeras H:\Video\Drama\GreatMovie.mov
filen till bloben https://mystorageaccount.blob.core.windows.net/video/Drama/GreatMovie.mov
.
Fastställa hårddiskkrav
Därefter kan du fastställa hur många hårddiskar som behövs genom att beräkna storleken på data:
12TB + 30GB + 25GB + 10GB = 12TB + 65GB
I det här exemplet bör två 8 TB-hårddiskar vara tillräckliga. Men eftersom H:\Video
källkatalogen har 12 TB data och den enskilda hårddiskens kapacitet bara är 8 TB kan du ange detta på följande sätt i driveset.csv filen:
DriveLetter,FormatOption,SilentOrPromptOnFormat,Encryption,ExistingBitLockerKey
X,Format,SilentMode,Encrypt,
Y,Format,SilentMode,Encrypt,
Verktyget distribuerar data mellan två hårddiskar på ett optimerat sätt.
Koppla enheter och konfigurera jobbet
Du kopplar båda diskarna till datorn och skapar volymer. Skapa sedan dataset.csv fil:
BasePath,DstBlobPathOrPrefix,BlobType,Disposition,MetadataFile,PropertiesFile
H:\Video\,video/,BlockBlob,rename,None,H:\mydirectory\properties.xml
H:\Photo\,photo/,BlockBlob,rename,None,H:\mydirectory\properties.xml
K:\Temp\FavoriteVideo.ISO,favorite/FavoriteVideo.ISO,BlockBlob,rename,None,H:\mydirectory\properties.xml
\\myshare\john\music\,music/,BlockBlob,rename,None,H:\mydirectory\properties.xml
Dessutom kan du ange följande metadata för alla filer:
- UploadMethod: Windows Azure Import/Export service
- DataSetName: SampleData
- CreationDate: 2013-10-01
Om du vill ange metadata för de importerade filerna skapar du en textfil, c:\WAImportExport\SampleMetadata.txt
, med följande innehåll:
<?xml version="1.0" encoding="UTF-8"?>
<Metadata>
<UploadMethod>Windows Azure Import/Export service</UploadMethod>
<DataSetName>SampleData</DataSetName>
<CreationDate>10/1/2013</CreationDate>
</Metadata>
Du kan också ange vissa egenskaper för FavoriteMovie.ISO
bloben:
- Innehållstyp: program/oktettström
- Content-MD5: Q2hlY2sgSW50ZWdyaXR5IQ==
- Cache-Control: no-cache
Ange dessa egenskaper genom att skapa en textfil, c:\WAImportExport\SampleProperties.txt
:
<?xml version="1.0" encoding="UTF-8"?>
<Properties>
<Content-Type>application/octet-stream</Content-Type>
<Content-MD5>Q2hlY2sgSW50ZWdyaXR5IQ==</Content-MD5>
<Cache-Control>no-cache</Cache-Control>
</Properties>
Kör Azure Import/Export Tool (WAImportExport.exe)
Nu är du redo att köra Azure Import/Export Tool för att förbereda de två hårddiskarna.
För den första sessionen:
WAImportExport.exe PrepImport /j:JournalTest.jrn /id:session#1 /sk:************* /InitialDriveSet:driveset-1.csv /DataSet:dataset-1.csv /logdir:F:\logs
Om du behöver lägga till fler data kan du skapa en till datamängdsfil (samma format som Initial datamängd).
För den andra sessionen:
WAImportExport.exe PrepImport /j:JournalTest.jrn /id:session#2 /DataSet:dataset-2.csv
När kopieringssessionerna har slutförts kan du koppla bort de två enheterna från kopieringsdatorn och skicka dem till lämpligt Azure-datacenter. Du överför de två journalfilerna, <FirstDriveSerialNumber>.xml
och <SecondDriveSerialNumber>.xml
, när du skapar importjobbet i Azure Portal.