共用方式為


在 Linux 上使用 HDInsight 的相關資訊

Azure HDInsight 叢集可在您熟悉的 Linux 環境中提供於 Azure 雲端中執行的 Apache Hadoop。 其操作大多與 Linux 安裝上的任何其他 Hadoop 相同。 本文件會指出其中應注意的特殊不同之處。

必要條件

本文件中的許多步驟都使用下列公用程式,可能需要安裝在您的系統上。

使用者

除非已加入網域,否則應將 HDInsight 視為單一使用者系統。 叢集中會建立一個具有系統管理員層級權限的 SSH 使用者帳戶。 您可以建立其他 SSH 帳戶,但這些帳戶也會擁有叢集的系統管理員權限。

已加入網域的 HDInsight 可支援多個使用者和更細微的權限和角色設定。 如需詳細資訊,請參閱管理已加入網域的 HDInsight 叢集

網域名稱

從網際網路連接到叢集時所要使用的完整網域名稱 (FQDN) 是 CLUSTERNAME.azurehdinsight.netCLUSTERNAME-ssh.azurehdinsight.net (僅適用於 SSH)。

就內部而言,叢集中的每個節點都具有在叢集組態期間指派的名稱。 若要尋找叢集名稱,請參閱 Ambari Web UI 上的 [主機] 頁面。 您也可以使用下列命令從 Ambari REST API 傳回主機清單︰

curl -u admin -G "https://CLUSTERNAME.azurehdinsight.net/api/v1/clusters/CLUSTERNAME/hosts" | jq '.items[].Hosts.host_name'

CLUSTERNAME 取代為您的叢集名稱。 出現提示時,請輸入系統管理員帳戶的密碼。 此命令會傳回包含叢集中主機清單的 JSON 文件。 jq 用來擷取每部主機的 host_name 元素值。

如果您需要針對特定服務尋找節點的名稱,您可以查詢 Ambari 有無該元件。 例如,若要尋找主機有無 HDFS 名稱節點,請使用下列命令:

curl -u admin -G "https://CLUSTERNAME.azurehdinsight.net/api/v1/clusters/CLUSTERNAME/services/HDFS/components/NAMENODE" | jq '.host_components[].HostRoles.host_name'

此命令會傳回描述服務的 JSON 文件,然後 jq 只會針對主機提取 host_name 值。

遠端存取服務

  • Ambari (web) - https://CLUSTERNAME.azurehdinsight.net

    使用叢集系統管理員使用者和密碼進行驗證,然後登入 Ambari。

    驗證是純文字的 - 請一律使用 HTTPS 來協助確保連線的安全性。

    重要

    透過 Ambari 使用的一些 Web UI 會使用內部網域名稱存取節點。 內部網域名稱無法透過網際網路公開存取。 在嘗試透過網際網路存取某些功能時可能會收到「找不到伺服器」的錯誤。

    若要使用 Ambari Web UI 的完整功能,請使用 SSH 通道將 Web 流量以 Proxy 處理傳輸到叢集前端節點。 請參閱使用 SSH 通道來存取 Apache Ambari Web UI、ResourceManager、JobHistory、NameNode、Oozie 及其他 Web UI

  • Ambari (REST) - https://CLUSTERNAME.azurehdinsight.net/ambari

    注意

    使用叢集系統管理員使用者和密碼進行驗證。

    驗證是純文字的 - 請一律使用 HTTPS 來協助確保連線的安全性。

  • WebHCat (Templeton) - https://CLUSTERNAME.azurehdinsight.net/templeton

    注意

    使用叢集系統管理員使用者和密碼進行驗證。

    驗證是純文字的 - 請一律使用 HTTPS 來協助確保連線的安全性。

  • SSH - 連接埠 22 或 23 上的 CLUSTERNAME-ssh.azurehdinsight.net。 連接埠 22 用來連接至主要前端節點,而 23 用來連接至次要前端節點。 如需前端節點的詳細資訊,請參閱 HDInsight 上 Apache Hadoop 叢集的可用性和可靠性

    注意

    您只能從用戶端電腦透過 SSH 存取叢集前端節點。 然後在連線後,再從前端節點使用 SSH 存取背景工作角色節點。

如需詳細資訊,請參閱 HDInsight 上 Apache Hadoop 服務所使用的連接埠文件。

檔案位置

Hadoop 相關檔案可以在叢集節點的 /usr/hdp上找到。 此目錄包含下列子目錄:

  • 2.6.5.3009-43:目錄名稱是 HDInsight 所使用的 Hadoop 平台版本。 叢集上的數字可能不同於此處所列的數字。
  • current︰此目錄包含 2.6.5.3009-43 目錄下的子目錄連結。 因為有此目錄,您就不必記住版本號碼。

在 Hadoop 分散式檔案系統的 /example/HdiSamples 可取得範例資料和 JAR 檔案。

HDFS、Azure 儲存體和 Data Lake Storage

在大部分的 Hadoop 散發套件中,資料會儲存在 HDFS 中。 叢集中機器上的本機儲存體會支援 HDFS。 針對雲端解決方案使用本機儲存體的成本可能相當高,因為計算資源是以每小時或每分鐘為單位來計費。

使用 HDInsight 時,會使用 Azure Blob 儲存體 (並選擇性地使用 Azure Data Lake Storage Gen2),以適用的彈性方式將資料檔案儲存在雲端中。 這些服務提供下列優點:

  • 長期儲存成本低廉。
  • 可從各種外部服務進行存取,例如網站、檔案上傳/下載公用程式、各種語言的 SDK 和網頁瀏覽器。
  • 大型檔案容量和大型適用的儲存體。

如需詳細資訊,請參閱 Azure Blob 儲存體Azure Data Lake Storage Gen2

使用 Azure Blob 儲存體或 Data Lake Storage Gen2 時,您不需要從 HDInsight 進行任何特殊動作就能存取資料。 例如,下列命令會列出 /example/data 資料夾中的檔案,不論其是否儲存在 Azure 儲存體或 Data Lake Storage 中:

hdfs dfs -ls /example/data

在 HDInsight 中,資料儲存體資源 (Azure Blob 儲存體和 Azure Data Lake Storage) 會與計算資源分離。 您可以視需要建立 HDInsight 叢集來執行計算,稍後在工作完成時刪除叢集。 同時,只要您需要,就能安全地將資料檔案保存在雲端儲存體中。

URI 和配置

有些命令可能需要您在存取檔案時於 URI 中指定配置。 在使用非預設儲存體 (新增為叢集「其他」儲存體的儲存體) 時,您一律必須在 URI 中使用配置。

使用 Azure 儲存體時,請使用下列其中一種 URI 配置:

  • wasb:///︰使用未加密通訊存取預設儲存體。

  • wasbs:///︰使用加密通訊存取預設儲存體。 HDInsight 3.6 版和更新版本才會支援 wasbs 配置。

  • wasb://<container-name>@<account-name>.blob.core.windows.net/:與非預設儲存體帳戶進行通訊時使用。 例如,當您有其他儲存體帳戶,或在可公開存取的儲存體帳戶中存取儲存的資料時。

使用 Azure Data Lake Storage Gen2 時,請使用下列 URI 配置:

  • abfs://︰使用加密通訊存取預設儲存體。

  • abfs://<container-name>@<account-name>.dfs.core.windows.net/:與非預設儲存體帳戶進行通訊時使用。 例如,當您有其他儲存體帳戶,或在可公開存取的儲存體帳戶中存取儲存的資料時。

重要

使用 Data Lake Storage 做為 HDInsight 的預設存放區時,您必須在存放區內指定要做為 HDInsight 儲存體根目錄的路徑。 預設路徑為 /clusters/<cluster-name>/

使用 /adl:/// 存取資料時,您只可以存取儲存在叢集根目錄 (例如,/clusters/<cluster-name>/) 中的資料。 若要存取存放區中任何位置的資料,請使用 adl://<storage-name>.azuredatalakestore.net/ 格式。

叢集使用什麼儲存體

您可以使用 Ambari 來擷取叢集的預設儲存體組態。 請使用下列命令和 CURL 來擷取 HDFS 組態資訊,並使用 jq加以篩選:

curl -u admin -G "https://CLUSTERNAME.azurehdinsight.net/api/v1/clusters/CLUSTERNAME/configurations/service_config_versions?service_name=HDFS&service_config_version=1" | jq '.items[].configurations[].properties["fs.defaultFS"] | select(. != null)'

注意

這個命令會傳回套用至伺服器的第一個組態 (service_config_version=1),其中包含這項資訊。 您可能需要列出所有組態版本來找出最新的版本。

此命令會傳回類似下列 URI 的值:

  • wasb://<container-name>@<account-name>.blob.core.windows.net,若使用 Azure 儲存體帳戶。

    帳戶名稱是「Azure 儲存體」帳戶的名稱。 容器名稱是作為叢集儲存體根目錄的 Blob 容器。

  • 如果使用 Azure Data Lake Storage,則為 adl://home。 若要取得 Data Lake Storage 名稱,請使用下列 REST 呼叫︰

    curl -u admin -G "https://CLUSTERNAME.azurehdinsight.net/api/v1/clusters/CLUSTERNAME/configurations/service_config_versions?service_name=HDFS&service_config_version=1" | jq '.items[].configurations[].properties["dfs.adls.home.hostname"] | select(. != null)'
    

    此命令會傳回下列主機名稱:<data-lake-store-account-name>.azuredatalakestore.net

    若要取得 HDInsight 根目錄存放區內的目錄,請使用下列 REST 呼叫︰

    curl -u admin -G "https://CLUSTERNAME.azurehdinsight.net/api/v1/clusters/CLUSTERNAME/configurations/service_config_versions?service_name=HDFS&service_config_version=1" | jq '.items[].configurations[].properties["dfs.adls.home.mountpoint"] | select(. != null)'
    

    此命令會傳回類似下列路徑的路徑:/clusters/<hdinsight-cluster-name>/

您也可以使用 Azure 入口網站,以下列步驟尋找儲存體資訊︰

  1. Azure 入口網站,選取您的 HDInsight 叢集。

  2. 從 [屬性] 區段中,選取 [儲存體帳戶]。 隨即會顯示叢集的儲存體資訊。

如何從 HDInsight 外部存取檔案

有各種不同的方式可從 HDInsight 叢集之外存取資料。 以下是幾個可用來處理資料之公用程式和 SDK 的連結︰

如果使用 Azure Blob 儲存體,請參閱下列連結,以取得可存取資料的方式︰

如果使用 Azure Data Lake Storage Gen1,請參閱下列連結,以取得可存取資料的方式︰

調整叢集規模

叢集調整功能可讓您動態變更叢集所用的資料節點數目。 在叢集上執行其他工作或處理序時,您可以執行調整作業。 請參閱 調整 HDInsight 叢集

如何安裝 Hue (或其他 Hadoop 元件)?

HDInsight 是受控服務。 如果 Azure 偵測到叢集問題,它可能會刪除失敗節點並建立要取代它的節點。 當您以手動方式在叢集上安裝項目時,若發生此作業,則不會保存這些項目。 請改用 HDInsight 指令碼動作。 指令碼動作可用來進行下列變更︰

  • 安裝及設定服務或網站。
  • 安裝及設定需要在叢集中的多個節點上進行組態變更的元件。

指令碼動作是 Bash 指令碼。 指令碼會在叢集建立期間執行,而且可用來安裝及設定其他元件。 如需開發您自己的指令碼動作相關資訊,請參閱 使用 HDInsight 開發指令碼動作

JAR 檔案

某些 Hadoop 技術提供獨立式 jar 檔案。 這些檔案包含當作 MapReduce 作業一部分使用的函式,或來自 Pig 或 Hive 內的函式。 它們通常不需要任何設定,而且可在佈建後上傳到叢集並直接使用。 如果您想要確定元件會在重新安裝叢集的映像後保存下來,請將 jar 檔案儲存在叢集預設儲存體中。

例如,如果您想要使用最新版本的 Apache DataFu,則可下載包含專案的 jar,並將它上傳至 HDInsight 叢集。 接著遵循 DataFu 文件中,如何從 Pig 或 Hive 中使用它的指示進行。

重要

有一些屬於獨立 jar 檔案的元件是透過 HDInsight 來提供,但它們不在路徑中。 如果您正在尋找特定元件,可在叢集上使用下列內容來搜尋:

find / -name *componentname*.jar 2>/dev/null

此命令會傳回任何相符 jar 檔案的路徑。

若要使用不同版本的元件,請上傳您需要的版本並在工作中使用。

重要

透過 HDInsight 叢集提供的元件會受到完整支援,且 Microsoft 支援服務會協助釐清與解決這些元件的相關問題。

自訂元件則獲得商務上合理的支援,協助您進一步疑難排解問題。 如此可能會進而解決問題,或要求您利用可用管道,以找出開放原始碼技術,從中了解該技術的深度專業知識。 例如,有許多社群網站可供使用,例如:適用於 HDInsight 的 Microsoft 問與答頁面https://stackoverflow.com。 此外,Apache 專案在 https://apache.org 上也有專案網站,例如 HadoopSpark

下一步