Dela via


Exempelarbetsflöde för att förbereda hårddiskar för ett importjobb

Den här artikeln beskriver steg för steg hur du förbereder enheter för ett importjobb.

Exempeldata

I det här exemplet importeras följande data till ett Azure Storage-konto med namnet mystorageaccount:

Location Description Datastorlek
H:\Video\ En samling videor 12 TB
H:\Photo\ En samling foton 30 GB
K:\Temp\FavoriteMovie.ISO En avbildning av en disk med™ Ray 25 GB
\\bigshare\john\music\ En samling musikfiler på en nätverksresurs 10 GB

Storage-kontomål

Importjobbet importerar data till följande mål i lagringskontot:

Källa Virtuell målkatalog eller blob
H:\Video\ video/
H:\Photo\ photo/
K:\Temp\FavoriteMovie.ISO favorite/FavoriteMovies.ISO
\\bigshare\john\music\ musik

Med den här mappningen importeras H:\Video\Drama\GreatMovie.mov filen till bloben https://mystorageaccount.blob.core.windows.net/video/Drama/GreatMovie.mov.

Fastställa hårddiskkrav

Därefter kan du fastställa hur många hårddiskar som behövs genom att beräkna storleken på data:

12TB + 30GB + 25GB + 10GB = 12TB + 65GB

I det här exemplet bör två 8 TB-hårddiskar vara tillräckliga. Men eftersom H:\Video källkatalogen har 12 TB data och den enskilda hårddiskens kapacitet bara är 8 TB kan du ange detta på följande sätt i driveset.csv filen:

DriveLetter,FormatOption,SilentOrPromptOnFormat,Encryption,ExistingBitLockerKey
X,Format,SilentMode,Encrypt,
Y,Format,SilentMode,Encrypt,

Verktyget distribuerar data mellan två hårddiskar på ett optimerat sätt.

Koppla enheter och konfigurera jobbet

Du kopplar båda diskarna till datorn och skapar volymer. Skapa sedan dataset.csv fil:

BasePath,DstBlobPathOrPrefix,BlobType,Disposition,MetadataFile,PropertiesFile
H:\Video\,video/,BlockBlob,rename,None,H:\mydirectory\properties.xml
H:\Photo\,photo/,BlockBlob,rename,None,H:\mydirectory\properties.xml
K:\Temp\FavoriteVideo.ISO,favorite/FavoriteVideo.ISO,BlockBlob,rename,None,H:\mydirectory\properties.xml
\\myshare\john\music\,music/,BlockBlob,rename,None,H:\mydirectory\properties.xml

Dessutom kan du ange följande metadata för alla filer:

  • UploadMethod: Windows Azure Import/Export service
  • DataSetName: SampleData
  • CreationDate: 2013-10-01

Om du vill ange metadata för de importerade filerna skapar du en textfil, c:\WAImportExport\SampleMetadata.txt, med följande innehåll:

<?xml version="1.0" encoding="UTF-8"?>
<Metadata>
    <UploadMethod>Windows Azure Import/Export service</UploadMethod>
    <DataSetName>SampleData</DataSetName>
    <CreationDate>10/1/2013</CreationDate>
</Metadata>

Du kan också ange vissa egenskaper för FavoriteMovie.ISO bloben:

  • Innehållstyp: program/oktettström
  • Content-MD5: Q2hlY2sgSW50ZWdyaXR5IQ==
  • Cache-Control: no-cache

Ange dessa egenskaper genom att skapa en textfil, c:\WAImportExport\SampleProperties.txt:

<?xml version="1.0" encoding="UTF-8"?>
<Properties>
    <Content-Type>application/octet-stream</Content-Type>
    <Content-MD5>Q2hlY2sgSW50ZWdyaXR5IQ==</Content-MD5>
    <Cache-Control>no-cache</Cache-Control>
</Properties>

Kör Azure Import/Export Tool (WAImportExport.exe)

Nu är du redo att köra Azure Import/Export Tool för att förbereda de två hårddiskarna.

För den första sessionen:

WAImportExport.exe PrepImport /j:JournalTest.jrn /id:session#1  /sk:************* /InitialDriveSet:driveset-1.csv /DataSet:dataset-1.csv /logdir:F:\logs

Om du behöver lägga till fler data kan du skapa en till datamängdsfil (samma format som Initial datamängd).

För den andra sessionen:

WAImportExport.exe PrepImport /j:JournalTest.jrn /id:session#2  /DataSet:dataset-2.csv

När kopieringssessionerna har slutförts kan du koppla bort de två enheterna från kopieringsdatorn och skicka dem till lämpligt Azure-datacenter. Du överför de två journalfilerna, <FirstDriveSerialNumber>.xml och <SecondDriveSerialNumber>.xml, när du skapar importjobbet i Azure Portal.

Nästa steg