DataLakeFileClient Klasse
- java.
lang. Object - com.
azure. storage. file. datalake. DataLakePathClient - com.
azure. storage. file. datalake. DataLakeFileClient
- com.
- com.
public class DataLakeFileClient
extends DataLakePathClient
Diese Klasse stellt einen Client bereit, der Dateivorgänge für Azure Storage Data Lake enthält. Zu den von diesem Client bereitgestellten Vorgängen gehören das Erstellen einer Datei, das Löschen einer Datei, das Umbenennen einer Datei, das Festlegen von Metadaten und HTTP-Headern, das Festlegen und Abrufen der Zugriffssteuerung, das Abrufen von Eigenschaften, das Lesen einer Datei sowie das Anfügen und Leeren von Daten zum Schreiben in eine Datei.
Dieser Client wird über DataLakePathClientBuilder instanziiert oder über getFileClient(String fileName)abgerufen.
Weitere Informationen finden Sie in der Azure-Dokumentation .
Methodenzusammenfassung
Geerbte Methoden von DataLakePathClient
Geerbte Methoden von java.lang.Object
Details zur Methode
append
public void append(BinaryData data, long fileOffset)
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
client.append(binaryData, offset);
System.out.println("Append data completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
append
public void append(InputStream data, long fileOffset, long length)
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
client.append(data, offset, length);
System.out.println("Append data completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
appendWithResponse
public Response
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(binaryData, offset, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
appendWithResponse
public Response
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
BinaryData binaryData = BinaryData.fromStream(data, length);
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(binaryData, offset, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
appendWithResponse
public Response
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(data, offset, length, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
appendWithResponse
public Response
Fügt Daten an die angegebene Ressource an, die später durch einen Aufruf des Leerens geleert (geschrieben) werden.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(data, offset, length, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
delete
public void delete()
Löscht eine Datei.
Codebeispiele
client.delete();
System.out.println("Delete request completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
deleteIfExists
public boolean deleteIfExists()
Löscht eine Datei, sofern sie vorhanden ist.
Codebeispiele
client.deleteIfExists();
System.out.println("Delete request completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Overrides:
DataLakeFileClient.deleteIfExists()Returns:
true
, wenn die Datei erfolgreich gelöscht wurde, false
wenn die Datei nicht vorhanden ist.deleteIfExistsWithResponse
public Response
Löscht eine Datei, sofern sie vorhanden ist.
Codebeispiele
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakePathDeleteOptions options = new DataLakePathDeleteOptions().setIsRecursive(false)
.setRequestConditions(requestConditions);
Response<Boolean> response = client.deleteIfExistsWithResponse(options, timeout, new Context(key1, value1));
if (response.getStatusCode() == 404) {
System.out.println("Does not exist.");
} else {
System.out.printf("Delete completed with status %d%n", response.getStatusCode());
}
Weitere Informationen finden Sie in der Azure-Dokumentation.
Overrides:
DataLakeFileClient.deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)Parameters:
Returns:
deleteWithResponse
public Response
Löscht eine Datei.
Codebeispiele
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
client.deleteWithResponse(requestConditions, timeout, new Context(key1, value1));
System.out.println("Delete request completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
flush
@Deprecated
public PathInfo flush(long position)
Als veraltet markiert
Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.
Standardmäßig überschreibt diese Methode vorhandene Daten nicht.
Codebeispiele
client.flush(position);
System.out.println("Flush data completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
flush
public PathInfo flush(long position, boolean overwrite)
Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.
Codebeispiele
boolean overwrite = true;
client.flush(position, overwrite);
System.out.println("Flush data completed");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
flushWithResponse
public Response
Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, retainUncommittedData, close, httpHeaders,
requestConditions, timeout, new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
flushWithResponse
public Response
Leert (schreibt) Daten, die zuvor über einen Aufruf des Anfügevorgangs an die Datei angefügt wurden. Die zuvor hochgeladenen Daten müssen zusammenhängend sein.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Integer leaseDuration = 15;
DataLakeFileFlushOptions flushOptions = new DataLakeFileFlushOptions()
.setUncommittedDataRetained(retainUncommittedData)
.setClose(close)
.setPathHttpHeaders(httpHeaders)
.setRequestConditions(requestConditions)
.setLeaseAction(LeaseAction.ACQUIRE)
.setLeaseDuration(leaseDuration)
.setProposedLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, flushOptions, timeout,
new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
getCustomerProvidedKeyClient
public DataLakeFileClient getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)
Erstellt einen neuen DataLakeFileClient mit dem angegebenen customerProvidedKey
.
Overrides:
DataLakeFileClient.getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)Parameters:
null
, um keinen vom Kunden bereitgestellten Schlüssel zu verwenden.
Returns:
customerProvidedKey
.getFileName
public String getFileName()
Ruft den Namen dieser Datei ab, ohne den vollständigen Pfad zu enthalten.
Returns:
getFilePath
public String getFilePath()
Ruft den Pfad dieser Datei ab, ohne den Namen der Ressource selbst.
Returns:
getFileUrl
public String getFileUrl()
Ruft die URL der Datei ab, die von diesem Client im Data Lake-Dienst dargestellt wird.
Returns:
getOutputStream
public OutputStream getOutputStream()
Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options)
Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.
Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options, Context context)
Erstellt und öffnet einen Ausgabestream, um Daten in die Datei zu schreiben. Wenn die Datei bereits im Dienst vorhanden ist, wird sie überschrieben.
Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream()
Öffnet einen Dateieingabestream, um die Datei herunterzuladen. Sperren für ETags.
DataLakeFileOpenInputStreamResult inputStream = client.openInputStream();
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options)
Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen. Standardmäßig wird die ETag-Sperrung verwendet, wenn die Option nicht angegeben ist.
DataLakeFileInputStreamOptions options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult streamResult = client.openInputStream(options);
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options, Context context)
Öffnet einen Dateieingabestream, um den angegebenen Bereich der Datei herunterzuladen. Standardmäßig wird die ETag-Sperrung verwendet, wenn die Option nicht angegeben ist.
options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult stream = client.openInputStream(options, new Context(key1, value1));
Parameters:
Returns:
openQueryInputStream
public InputStream openQueryInputStream(String expression)
Öffnet einen Eingabestream, um die Datei abzufragen.
Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
String expression = "SELECT * from BlobStorage";
InputStream inputStream = client.openQueryInputStream(expression);
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
-Objekt, das den Stream darstellt, der zum Lesen der Abfrageantwort verwendet werden soll.openQueryInputStreamWithResponse
public Response
Öffnet einen Eingabestream, um die Datei abzufragen.
Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
String expression = "SELECT * from BlobStorage";
FileQuerySerialization input = new FileQueryDelimitedSerialization()
.setColumnSeparator(',')
.setEscapeChar('\n')
.setRecordSeparator('\n')
.setHeadersPresent(true)
.setFieldQuote('"');
FileQuerySerialization output = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId("leaseId");
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
InputStream inputStream = client.openQueryInputStreamWithResponse(queryOptions).getValue();
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
Objekts, das den Stream darstellt, der zum Lesen der Abfrageantwort verwendet werden soll.query
public void query(OutputStream stream, String expression)
Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.
Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
client.query(queryData, expression);
System.out.println("Query completed.");
Parameters:
queryWithResponse
public FileQueryResponse queryWithResponse(FileQueryOptions queryOptions, Duration timeout, Context context)
Fragt eine gesamte Datei in einen Ausgabedatenstrom ab.
Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
FileQueryJsonSerialization input = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
FileQueryDelimitedSerialization output = new FileQueryDelimitedSerialization()
.setEscapeChar('\0')
.setColumnSeparator(',')
.setRecordSeparator('\n')
.setFieldQuote('\'')
.setHeadersPresent(true);
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions().setLeaseId(leaseId);
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression, queryData)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
System.out.printf("Query completed with status %d%n",
client.queryWithResponse(queryOptions, timeout, new Context(key1, value1))
.getStatusCode());
Parameters:
Returns:
read
public void read(OutputStream stream)
Liest die gesamte Datei in einen Ausgabestream.
Codebeispiele
client.read(new ByteArrayOutputStream());
System.out.println("Download completed.");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
readToFile
public PathProperties readToFile(String filePath)
Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.
Die Datei wird erstellt und darf nicht vorhanden sein, wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst.
Codebeispiele
client.readToFile(file);
System.out.println("Completed download to file");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
readToFile
public PathProperties readToFile(String filePath, boolean overwrite)
Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.
Wenn das Überschreiben auf false festgelegt ist, wird die Datei erstellt und darf nicht vorhanden sein. Wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst.
Codebeispiele
boolean overwrite = false; // Default value
client.readToFile(file, overwrite);
System.out.println("Completed download to file");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
readToFileWithResponse
public Response
Liest die gesamte Datei in eine datei, die durch den Pfad angegeben wird.
Standardmäßig wird die Datei erstellt und darf nicht vorhanden sein, wenn die Datei bereits vorhanden ist, wird ein FileAlreadyExistsException ausgelöst. Um dieses Verhalten zu überschreiben, geben Sie geeignete OpenOptions
Codebeispiele
FileRange fileRange = new FileRange(1024, 2048L);
DownloadRetryOptions downloadRetryOptions = new DownloadRetryOptions().setMaxRetryRequests(5);
Set<OpenOption> openOptions = new HashSet<>(Arrays.asList(StandardOpenOption.CREATE_NEW,
StandardOpenOption.WRITE, StandardOpenOption.READ)); // Default options
client.readToFileWithResponse(file, fileRange, new ParallelTransferOptions().setBlockSizeLong(4L * Constants.MB),
downloadRetryOptions, null, false, openOptions, timeout, new Context(key2, value2));
System.out.println("Completed download to file");
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
readWithResponse
public FileReadResponse readWithResponse(OutputStream stream, FileRange range, DownloadRetryOptions options, DataLakeRequestConditions requestConditions, boolean getRangeContentMd5, Duration timeout, Context context)
Liest einen Bytebereich aus einer Datei in einen Ausgabestream.
Codebeispiele
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
System.out.printf("Download completed with status %d%n",
client.readWithResponse(new ByteArrayOutputStream(), range, options, null, false,
timeout, new Context(key2, value2)).getStatusCode());
Weitere Informationen finden Sie in der Azure-Dokumentation.
Parameters:
Returns:
rename
public DataLakeFileClient rename(String destinationFileSystem, String destinationPath)
Verschiebt die Datei an einen anderen Speicherort im Dateisystem. Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
DataLakeDirectoryAsyncClient renamedClient = client.rename(fileSystemName, destinationPath).block();
System.out.println("Directory Client has been renamed");
Parameters:
null
für das aktuelle Dateisystem.
Returns:
renameWithResponse
public Response
Verschiebt die Datei an einen anderen Speicherort im Dateisystem. Weitere Informationen finden Sie in der Azure-Dokumentation.
Codebeispiele
DataLakeRequestConditions sourceRequestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakeRequestConditions destinationRequestConditions = new DataLakeRequestConditions();
DataLakeFileClient newRenamedClient = client.renameWithResponse(fileSystemName, destinationPath,
sourceRequestConditions, destinationRequestConditions, timeout, new Context(key1, value1)).getValue();
System.out.println("Directory Client has been renamed");
Parameters:
null
für das aktuelle Dateisystem.
Returns:
scheduleDeletion
public void scheduleDeletion(FileScheduleDeletionOptions options)
Plant das Löschen der Datei.
Codebeispiele
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
client.scheduleDeletion(options);
System.out.println("File deletion has been scheduled");
Parameters:
scheduleDeletionWithResponse
public Response
Plant das Löschen der Datei.
Codebeispiele
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
Context context = new Context("key", "value");
client.scheduleDeletionWithResponse(options, timeout, context);
System.out.println("File deletion has been scheduled");
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data)
Erstellt eine neue Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.
Codebeispiele
try {
client.upload(binaryData);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data, boolean overwrite)
Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.
Codebeispiele
try {
boolean overwrite = false;
client.upload(binaryData, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length)
Erstellt eine neue Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.
Codebeispiele
try {
client.upload(data, length);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length, boolean overwrite)
Erstellt eine neue Datei oder aktualisiert den Inhalt einer vorhandenen Datei.
Codebeispiele
try {
boolean overwrite = false;
client.upload(data, length, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadFromFile
public void uploadFromFile(String filePath)
Erstellt eine Datei mit dem Inhalt der angegebenen Datei. Standardmäßig überschreibt diese Methode keine vorhandene Datei.
Codebeispiele
try {
client.uploadFromFile(filePath);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, boolean overwrite)
Erstellt eine Datei mit dem Inhalt der angegebenen Datei.
Codebeispiele
try {
boolean overwrite = false;
client.uploadFromFile(filePath, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map
Erstellt eine Datei mit dem Inhalt der angegebenen Datei.
Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).
Codebeispiele
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadFromFile(filePath, parallelTransferOptions, headers, metadata, requestConditions, timeout);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFileWithResponse
public Response
Erstellt eine Datei mit dem Inhalt der angegebenen Datei.
Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).
Codebeispiele
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
Response<PathInfo> response = client.uploadFromFileWithResponse(filePath, parallelTransferOptions, headers,
metadata, requestConditions, timeout, new Context("key", "value"));
System.out.printf("Upload from file succeeded with status %d%n", response.getStatusCode());
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadWithResponse
public Response
Erstellt eine neue Datei. Um das Überschreiben zu vermeiden, übergeben Sie "*" an setIfNoneMatch(String ifNoneMatch).
Codebeispiele
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadWithResponse(new FileParallelUploadOptions(data, length)
.setParallelTransferOptions(parallelTransferOptions).setHeaders(headers)
.setMetadata(metadata).setRequestConditions(requestConditions)
.setPermissions("permissions").setUmask("umask"), timeout, new Context("key", "value"));
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
Gilt für:
Azure SDK for Java