DataLakeFileClient Classe
- java.
lang. Object - com.
azure. storage. file. datalake. DataLakePathClient - com.
azure. storage. file. datalake. DataLakeFileClient
- com.
- com.
public class DataLakeFileClient
extends DataLakePathClient
Cette classe fournit un client qui contient des opérations de fichier pour Azure Storage Data Lake. Les opérations fournies par ce client incluent la création d’un fichier, la suppression d’un fichier, le renommage d’un fichier, la définition des métadonnées et des en-têtes http, la définition et la récupération du contrôle d’accès, l’obtention de propriétés, la lecture d’un fichier et l’ajout et le vidage des données à écrire dans un fichier.
Ce client est instancié via DataLakePathClientBuilder ou récupéré via getFileClient(String fileName).
Pour plus d’informations, consultez Azure Docs .
Résumé de la méthode
Méthodes héritées de DataLakePathClient
Méthodes héritées de java.lang.Object
Détails de la méthode
append
public void append(BinaryData data, long fileOffset)
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
client.append(binaryData, offset);
System.out.println("Append data completed");
Pour plus d’informations, consultez Azure Docs
Parameters:
append
public void append(InputStream data, long fileOffset, long length)
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
client.append(data, offset, length);
System.out.println("Append data completed");
Pour plus d’informations, consultez Azure Docs
Parameters:
appendWithResponse
public Response
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(binaryData, offset, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
appendWithResponse
public Response
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
BinaryData binaryData = BinaryData.fromStream(data, length);
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(binaryData, offset, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
appendWithResponse
public Response
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
Response<Void> response = client.appendWithResponse(data, offset, length, contentMd5, leaseId, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
appendWithResponse
public Response
Ajoute des données à la ressource spécifiée pour qu’elles soient ensuite vidées (écrites) par un appel à vidage
Exemples de code
FileRange range = new FileRange(1024, 2048L);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
DataLakeFileAppendOptions appendOptions = new DataLakeFileAppendOptions()
.setLeaseId(leaseId)
.setContentHash(contentMd5)
.setFlush(true);
Response<Void> response = client.appendWithResponse(data, offset, length, appendOptions, timeout,
new Context(key1, value1));
System.out.printf("Append data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
delete
public void delete()
Supprime un fichier.
Exemples de code
client.delete();
System.out.println("Delete request completed");
Pour plus d’informations, consultez Azure Docs
deleteIfExists
public boolean deleteIfExists()
Supprime un fichier s’il existe.
Exemples de code
client.deleteIfExists();
System.out.println("Delete request completed");
Pour plus d’informations, consultez Azure Docs
Overrides:
DataLakeFileClient.deleteIfExists()Returns:
true
si le fichier est supprimé avec succès, false
si le fichier n’existe pas.deleteIfExistsWithResponse
public Response
Supprime un fichier s’il existe.
Exemples de code
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakePathDeleteOptions options = new DataLakePathDeleteOptions().setIsRecursive(false)
.setRequestConditions(requestConditions);
Response<Boolean> response = client.deleteIfExistsWithResponse(options, timeout, new Context(key1, value1));
if (response.getStatusCode() == 404) {
System.out.println("Does not exist.");
} else {
System.out.printf("Delete completed with status %d%n", response.getStatusCode());
}
Pour plus d’informations, consultez Azure Docs
Overrides:
DataLakeFileClient.deleteIfExistsWithResponse(DataLakePathDeleteOptions options, Duration timeout, Context context)Parameters:
Returns:
deleteWithResponse
public Response
Supprime un fichier.
Exemples de code
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
client.deleteWithResponse(requestConditions, timeout, new Context(key1, value1));
System.out.println("Delete request completed");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
flush
@Deprecated
public PathInfo flush(long position)
Déprécié
Vide les données (écritures) précédemment ajoutées au fichier par le biais d’un appel à ajouter. Les données précédemment chargées doivent être contiguës.
Par défaut, cette méthode ne remplace pas les données existantes.
Exemples de code
client.flush(position);
System.out.println("Flush data completed");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
flush
public PathInfo flush(long position, boolean overwrite)
Vide les données (écritures) précédemment ajoutées au fichier par le biais d’un appel à ajouter. Les données précédemment chargées doivent être contiguës.
Exemples de code
boolean overwrite = true;
client.flush(position, overwrite);
System.out.println("Flush data completed");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
flushWithResponse
public Response
Vide (écrit) les données précédemment ajoutées au fichier par le biais d’un appel à ajouter. Les données précédemment chargées doivent être contiguës.
Exemples de code
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, retainUncommittedData, close, httpHeaders,
requestConditions, timeout, new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
flushWithResponse
public Response
Vide (écrit) les données précédemment ajoutées au fichier par le biais d’un appel à ajouter. Les données précédemment chargées doivent être contiguës.
Exemples de code
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
byte[] contentMd5 = new byte[0]; // Replace with valid md5
boolean retainUncommittedData = false;
boolean close = false;
PathHttpHeaders httpHeaders = new PathHttpHeaders()
.setContentLanguage("en-US")
.setContentType("binary");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
Integer leaseDuration = 15;
DataLakeFileFlushOptions flushOptions = new DataLakeFileFlushOptions()
.setUncommittedDataRetained(retainUncommittedData)
.setClose(close)
.setPathHttpHeaders(httpHeaders)
.setRequestConditions(requestConditions)
.setLeaseAction(LeaseAction.ACQUIRE)
.setLeaseDuration(leaseDuration)
.setProposedLeaseId(leaseId);
Response<PathInfo> response = client.flushWithResponse(position, flushOptions, timeout,
new Context(key1, value1));
System.out.printf("Flush data completed with status %d%n", response.getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
getCustomerProvidedKeyClient
public DataLakeFileClient getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)
Crée un nouveau DataLakeFileClient avec le customerProvidedKey
spécifié.
Overrides:
DataLakeFileClient.getCustomerProvidedKeyClient(CustomerProvidedKey customerProvidedKey)Parameters:
null
pour utiliser aucune clé fournie par le CustomerProvidedKey client.
Returns:
customerProvidedKey
.getFileName
public String getFileName()
Obtient le nom de ce fichier, sans inclure son chemin d’accès complet.
Returns:
getFilePath
public String getFilePath()
Obtient le chemin d’accès de ce fichier, sans inclure le nom de la ressource elle-même.
Returns:
getFileUrl
public String getFileUrl()
Obtient l’URL du fichier représenté par ce client sur le service Data Lake.
Returns:
getOutputStream
public OutputStream getOutputStream()
Crée et ouvre un flux de sortie pour écrire des données dans le fichier. Si le fichier existe déjà sur le service, il est remplacé.
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options)
Crée et ouvre un flux de sortie pour écrire des données dans le fichier. Si le fichier existe déjà sur le service, il est remplacé.
Pour éviter le remplacement, passez « * » à setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
getOutputStream
public OutputStream getOutputStream(DataLakeFileOutputStreamOptions options, Context context)
Crée et ouvre un flux de sortie pour écrire des données dans le fichier. Si le fichier existe déjà sur le service, il est remplacé.
Pour éviter le remplacement, passez « * » à setIfNoneMatch(String ifNoneMatch).
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream()
Ouvre un flux d’entrée de fichier pour télécharger le fichier. Verrous sur les ETags.
DataLakeFileOpenInputStreamResult inputStream = client.openInputStream();
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options)
Ouvre un flux d’entrée de fichier pour télécharger la plage spécifiée du fichier. La valeur par défaut est le verrouillage ETag si l’option n’est pas spécifiée.
DataLakeFileInputStreamOptions options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult streamResult = client.openInputStream(options);
Parameters:
Returns:
openInputStream
public DataLakeFileOpenInputStreamResult openInputStream(DataLakeFileInputStreamOptions options, Context context)
Ouvre un flux d’entrée de fichier pour télécharger la plage spécifiée du fichier. La valeur par défaut est le verrouillage ETag si l’option n’est pas spécifiée.
options = new DataLakeFileInputStreamOptions().setBlockSize(1024)
.setRequestConditions(new DataLakeRequestConditions());
DataLakeFileOpenInputStreamResult stream = client.openInputStream(options, new Context(key1, value1));
Parameters:
Returns:
openQueryInputStream
public InputStream openQueryInputStream(String expression)
Ouvre un flux d’entrée pour interroger le fichier.
Pour plus d’informations, consultez Azure Docs
Exemples de code
String expression = "SELECT * from BlobStorage";
InputStream inputStream = client.openQueryInputStream(expression);
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
qui représente le flux à utiliser pour lire la réponse à la requête.openQueryInputStreamWithResponse
public Response
Ouvre un flux d’entrée pour interroger le fichier.
Pour plus d’informations, consultez Azure Docs
Exemples de code
String expression = "SELECT * from BlobStorage";
FileQuerySerialization input = new FileQueryDelimitedSerialization()
.setColumnSeparator(',')
.setEscapeChar('\n')
.setRecordSeparator('\n')
.setHeadersPresent(true)
.setFieldQuote('"');
FileQuerySerialization output = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId("leaseId");
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
InputStream inputStream = client.openQueryInputStreamWithResponse(queryOptions).getValue();
// Now you can read from the input stream like you would normally.
Parameters:
Returns:
InputStream
objet qui représente le flux à utiliser pour lire la réponse à la requête.query
public void query(OutputStream stream, String expression)
Interroge un fichier entier dans un flux de sortie.
Pour plus d’informations, consultez Azure Docs
Exemples de code
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
client.query(queryData, expression);
System.out.println("Query completed.");
Parameters:
queryWithResponse
public FileQueryResponse queryWithResponse(FileQueryOptions queryOptions, Duration timeout, Context context)
Interroge un fichier entier dans un flux de sortie.
Pour plus d’informations, consultez Azure Docs
Exemples de code
ByteArrayOutputStream queryData = new ByteArrayOutputStream();
String expression = "SELECT * from BlobStorage";
FileQueryJsonSerialization input = new FileQueryJsonSerialization()
.setRecordSeparator('\n');
FileQueryDelimitedSerialization output = new FileQueryDelimitedSerialization()
.setEscapeChar('\0')
.setColumnSeparator(',')
.setRecordSeparator('\n')
.setFieldQuote('\'')
.setHeadersPresent(true);
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions().setLeaseId(leaseId);
Consumer<FileQueryError> errorConsumer = System.out::println;
Consumer<FileQueryProgress> progressConsumer = progress -> System.out.println("total file bytes read: "
+ progress.getBytesScanned());
FileQueryOptions queryOptions = new FileQueryOptions(expression, queryData)
.setInputSerialization(input)
.setOutputSerialization(output)
.setRequestConditions(requestConditions)
.setErrorConsumer(errorConsumer)
.setProgressConsumer(progressConsumer);
System.out.printf("Query completed with status %d%n",
client.queryWithResponse(queryOptions, timeout, new Context(key1, value1))
.getStatusCode());
Parameters:
Returns:
read
public void read(OutputStream stream)
Lit le fichier entier dans un flux de sortie.
Exemples de code
client.read(new ByteArrayOutputStream());
System.out.println("Download completed.");
Pour plus d’informations, consultez Azure Docs
Parameters:
readToFile
public PathProperties readToFile(String filePath)
Lit le fichier entier dans un fichier spécifié par le chemin d’accès.
Le fichier est créé et ne doit pas exister. Si le fichier existe déjà, un FileAlreadyExistsException est levée.
Exemples de code
client.readToFile(file);
System.out.println("Completed download to file");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
readToFile
public PathProperties readToFile(String filePath, boolean overwrite)
Lit le fichier entier dans un fichier spécifié par le chemin d’accès.
Si le remplacement est défini sur false, le fichier est créé et ne doit pas exister. Si le fichier existe déjà, un FileAlreadyExistsException sera levée.
Exemples de code
boolean overwrite = false; // Default value
client.readToFile(file, overwrite);
System.out.println("Completed download to file");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
readToFileWithResponse
public Response
Lit le fichier entier dans un fichier spécifié par le chemin d’accès.
Par défaut, le fichier est créé et ne doit pas exister. Si le fichier existe déjà, un FileAlreadyExistsException est levée. Pour remplacer ce comportement, fournissez OpenOptions
Exemples de code
FileRange fileRange = new FileRange(1024, 2048L);
DownloadRetryOptions downloadRetryOptions = new DownloadRetryOptions().setMaxRetryRequests(5);
Set<OpenOption> openOptions = new HashSet<>(Arrays.asList(StandardOpenOption.CREATE_NEW,
StandardOpenOption.WRITE, StandardOpenOption.READ)); // Default options
client.readToFileWithResponse(file, fileRange, new ParallelTransferOptions().setBlockSizeLong(4L * Constants.MB),
downloadRetryOptions, null, false, openOptions, timeout, new Context(key2, value2));
System.out.println("Completed download to file");
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
readWithResponse
public FileReadResponse readWithResponse(OutputStream stream, FileRange range, DownloadRetryOptions options, DataLakeRequestConditions requestConditions, boolean getRangeContentMd5, Duration timeout, Context context)
Lit une plage d’octets d’un fichier dans un flux de sortie.
Exemples de code
FileRange range = new FileRange(1024, 2048L);
DownloadRetryOptions options = new DownloadRetryOptions().setMaxRetryRequests(5);
System.out.printf("Download completed with status %d%n",
client.readWithResponse(new ByteArrayOutputStream(), range, options, null, false,
timeout, new Context(key2, value2)).getStatusCode());
Pour plus d’informations, consultez Azure Docs
Parameters:
Returns:
rename
public DataLakeFileClient rename(String destinationFileSystem, String destinationPath)
Déplace le fichier vers un autre emplacement dans le système de fichiers. Pour plus d’informations, consultez Azure Docs.
Exemples de code
DataLakeDirectoryAsyncClient renamedClient = client.rename(fileSystemName, destinationPath).block();
System.out.println("Directory Client has been renamed");
Parameters:
null
pour le système de fichiers actuel.
Returns:
renameWithResponse
public Response
Déplace le fichier vers un autre emplacement dans le système de fichiers. Pour plus d’informations, consultez Azure Docs.
Exemples de code
DataLakeRequestConditions sourceRequestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId);
DataLakeRequestConditions destinationRequestConditions = new DataLakeRequestConditions();
DataLakeFileClient newRenamedClient = client.renameWithResponse(fileSystemName, destinationPath,
sourceRequestConditions, destinationRequestConditions, timeout, new Context(key1, value1)).getValue();
System.out.println("Directory Client has been renamed");
Parameters:
null
pour le système de fichiers actuel.
Returns:
scheduleDeletion
public void scheduleDeletion(FileScheduleDeletionOptions options)
Planifie la suppression du fichier.
Exemples de code
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
client.scheduleDeletion(options);
System.out.println("File deletion has been scheduled");
Parameters:
scheduleDeletionWithResponse
public Response
Planifie la suppression du fichier.
Exemples de code
FileScheduleDeletionOptions options = new FileScheduleDeletionOptions(OffsetDateTime.now().plusDays(1));
Context context = new Context("key", "value");
client.scheduleDeletionWithResponse(options, timeout, context);
System.out.println("File deletion has been scheduled");
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data)
Crée un nouveau fichier. Par défaut, cette méthode ne remplace pas un fichier existant.
Exemples de code
try {
client.upload(binaryData);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(BinaryData data, boolean overwrite)
Crée un fichier ou met à jour le contenu d’un fichier existant.
Exemples de code
try {
boolean overwrite = false;
client.upload(binaryData, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length)
Crée un nouveau fichier. Par défaut, cette méthode ne remplace pas un fichier existant.
Exemples de code
try {
client.upload(data, length);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
upload
public PathInfo upload(InputStream data, long length, boolean overwrite)
Crée un fichier ou met à jour le contenu d’un fichier existant.
Exemples de code
try {
boolean overwrite = false;
client.upload(data, length, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadFromFile
public void uploadFromFile(String filePath)
Crée un fichier, avec le contenu du fichier spécifié. Par défaut, cette méthode ne remplace pas un fichier existant.
Exemples de code
try {
client.uploadFromFile(filePath);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, boolean overwrite)
Crée un fichier, avec le contenu du fichier spécifié.
Exemples de code
try {
boolean overwrite = false;
client.uploadFromFile(filePath, overwrite);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFile
public void uploadFromFile(String filePath, ParallelTransferOptions parallelTransferOptions, PathHttpHeaders headers, Map
Crée un fichier, avec le contenu du fichier spécifié.
Pour éviter le remplacement, passez « * » à setIfNoneMatch(String ifNoneMatch).
Exemples de code
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadFromFile(filePath, parallelTransferOptions, headers, metadata, requestConditions, timeout);
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
uploadFromFileWithResponse
public Response
Crée un fichier, avec le contenu du fichier spécifié.
Pour éviter le remplacement, passez « * » à setIfNoneMatch(String ifNoneMatch).
Exemples de code
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
Response<PathInfo> response = client.uploadFromFileWithResponse(filePath, parallelTransferOptions, headers,
metadata, requestConditions, timeout, new Context("key", "value"));
System.out.printf("Upload from file succeeded with status %d%n", response.getStatusCode());
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
uploadWithResponse
public Response
Crée un nouveau fichier. Pour éviter le remplacement, passez « * » à setIfNoneMatch(String ifNoneMatch).
Exemples de code
PathHttpHeaders headers = new PathHttpHeaders()
.setContentMd5("data".getBytes(StandardCharsets.UTF_8))
.setContentLanguage("en-US")
.setContentType("binary");
Map<String, String> metadata = Collections.singletonMap("metadata", "value");
DataLakeRequestConditions requestConditions = new DataLakeRequestConditions()
.setLeaseId(leaseId)
.setIfUnmodifiedSince(OffsetDateTime.now().minusDays(3));
Long blockSize = 100L * 1024L * 1024L; // 100 MB;
ParallelTransferOptions parallelTransferOptions = new ParallelTransferOptions().setBlockSizeLong(blockSize);
try {
client.uploadWithResponse(new FileParallelUploadOptions(data, length)
.setParallelTransferOptions(parallelTransferOptions).setHeaders(headers)
.setMetadata(metadata).setRequestConditions(requestConditions)
.setPermissions("permissions").setUmask("umask"), timeout, new Context("key", "value"));
System.out.println("Upload from file succeeded");
} catch (UncheckedIOException ex) {
System.err.printf("Failed to upload from file %s%n", ex.getMessage());
}
Parameters:
Returns:
S’applique à
Azure SDK for Java