Udostępnij za pośrednictwem


Korzystanie z interfejsu wiersza polecenia systemu plików HDFS z usługą Data Lake Storage

Dostęp do danych na koncie magazynu i zarządzanie nimi można uzyskać przy użyciu interfejsu wiersza polecenia, tak jak w przypadku rozproszonego systemu plików Hadoop (HDFS). Ten artykuł zawiera kilka przykładów, które pomogą Ci rozpocząć pracę.

Usługa HDInsight zapewnia dostęp do rozproszonego kontenera, który jest lokalnie dołączony do węzłów obliczeniowych. Dostęp do tego kontenera można uzyskać przy użyciu powłoki, która bezpośrednio współdziała z systemem plików HDFS i innymi systemami plików, które obsługuje usługa Hadoop.

Aby uzyskać więcej informacji na temat interfejsu wiersza polecenia systemu plików HDFS, zobacz oficjalną dokumentację i przewodnik po uprawnieniach systemu plików HDFS

Uwaga

Jeśli używasz usługi Azure Databricks zamiast usługi HDInsight i chcesz korzystać z danych przy użyciu interfejsu wiersza polecenia, możesz użyć interfejsu wiersza polecenia usługi Databricks do interakcji z systemem plików usługi Databricks. Zobacz Interfejs wiersza polecenia usługi Databricks.

Używanie interfejsu wiersza polecenia systemu plików HDFS z klastrem usługi HDInsight Hadoop w systemie Linux

Najpierw ustanów zdalny dostęp do usług. W przypadku wybrania protokołu SSH przykładowy kod programu PowerShell będzie wyglądać następująco:

#Connect to the cluster via SSH.
ssh sshuser@clustername-ssh.azurehdinsight.net
#Execute basic HDFS commands. Display the hierarchy.
hdfs dfs -ls /
#Create a sample directory.
hdfs dfs -mkdir /samplefolder

Parametry połączenia można znaleźć w sekcji "Logowanie za pomocą protokołu SSH i klastra" bloku klastra usługi HDInsight w witrynie Azure Portal. Poświadczenia SSH zostały określone podczas tworzenia klastra.

Ważne

Rozliczenia klastra usługi HDInsight są uruchamiane po utworzeniu klastra i zatrzymuje się po usunięciu klastra. Opłaty są naliczane za minutę, więc jeśli klaster nie jest używany, należy go usunąć. Aby dowiedzieć się, jak usunąć klaster, zobacz nasz artykuł na ten temat. Jednak dane przechowywane na koncie magazynu z włączoną usługą Data Lake Storage są zachowywane nawet po usunięciu klastra usługi HDInsight.

Tworzenie kontenera

hdfs dfs -D "fs.azure.createRemoteFileSystemDuringInitialization=true" -ls abfs://<container-name>@<storage-account-name>.dfs.core.windows.net/

  • Zastąp <container-name> symbol zastępczy nazwą, którą chcesz nadać kontenerowi.

  • Zastąp symbol zastępczy <storage-account-name> nazwą konta magazynu.

Pobieranie listy plików lub katalogów

hdfs dfs -ls <path>

Zastąp <path> symbol zastępczy identyfikatorem URI kontenera lub folderu kontenera.

Na przykład: hdfs dfs -ls abfs://my-file-system@mystorageaccount.dfs.core.windows.net/my-directory-name.

Tworzenie katalogu

hdfs dfs -mkdir [-p] <path>

<path> Zastąp symbol zastępczy nazwą głównego kontenera lub folderem w kontenerze.

Na przykład: hdfs dfs -mkdir abfs://my-file-system@mystorageaccount.dfs.core.windows.net/.

Usuwanie pliku lub katalogu

hdfs dfs -rm <path>

<path> Zastąp symbol zastępczy identyfikatorem URI pliku lub folderu, który chcesz usunąć.

Na przykład: hdfs dfs -rmdir abfs://my-file-system@mystorageaccount.dfs.core.windows.net/my-directory-name/my-file-name.

Wyświetlanie list kontroli dostępu (ACL) plików i katalogów

hdfs dfs -getfacl [-R] <path>

Przykład:

hdfs dfs -getfacl -R /dir

Zobacz getfacl

Ustawianie list ACL plików i katalogów

hdfs dfs -setfacl [-R] [-b|-k -m|-x <acl_spec> <path>]|[--set <acl_spec> <path>]

Przykład:

hdfs dfs -setfacl -m user:hadoop:rw- /file

Zobacz setfacl

Zmienianie właściciela plików

hdfs dfs -chown [-R] <new_owner>:<users_group> <URI>

Zobacz suknię

Zmienianie skojarzenia grup plików

hdfs dfs -chgrp [-R] <group> <URI>

Zobacz chgrp

Zmienianie uprawnień plików

hdfs dfs -chmod [-R] <mode> <URI>

Zobacz chmod

Pełną listę poleceń można wyświetlić w witrynie internetowej przewodnika po powłoce systemu plików Apache Hadoop 2.4.1.

Następne kroki