你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
从 Spark Shell 运行 Apache Spark
交互式 Apache Spark Shell 提供了一个 REPL(读取执行打印循环)环境,用于一次运行一个 Spark 命令并查看结果。 此进程可用于开发和调试。 Spark 为其每个支持的语言(Scala、Python 和 R)提供了一个 shell。
运行 Apache Spark Shell
使用 ssh 命令连接到群集。 编辑以下命令,将 CLUSTERNAME 替换为群集的名称,然后输入该命令:
ssh sshuser@CLUSTERNAME-ssh.azurehdinsight.net
Spark 为 Scala (spark-shell) 和 Python (pyspark) 提供 shell。 在 SSH 会话中,输入以下命令之一:
spark-shell # Optional configurations # spark-shell --num-executors 4 --executor-memory 4g --executor-cores 2 --driver-memory 8g --driver-cores 4
pyspark # Optional configurations # pyspark --num-executors 4 --executor-memory 4g --executor-cores 2 --driver-memory 8g --driver-cores 4
如果打算使用任何可选配置,请确保先查阅 Apache Spark 的 OutOfMemoryError 异常。
一些基本的示例命令。 选择相关语言:
val textFile = spark.read.textFile("/example/data/fruits.txt") textFile.first() textFile.filter(line => line.contains("apple")).show()
textFile = spark.read.text("/example/data/fruits.txt") textFile.first() textFile.filter(textFile.value.contains("apple")).show()
查询 CSV 文件。 请注意,下面的语言适用于
spark-shell
和pyspark
。spark.read.csv("/HdiSamples/HdiSamples/SensorSampleData/building/building.csv").show()
查询 CSV 文件,并将结果存储在变量中:
var data = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load("/HdiSamples/HdiSamples/SensorSampleData/building/building.csv")
data = spark.read.format("csv").option("header", "true").option("inferSchema", "true").load("/HdiSamples/HdiSamples/SensorSampleData/building/building.csv")
显示结果:
data.show() data.select($"BuildingID", $"Country").show(10)
data.show() data.select("BuildingID", "Country").show(10)
退出
:q
exit()
SparkSession 和 SparkContext 实例
默认情况下,运行 Spark Shell 时,将自动实例化 SparkSession 和 SparkContext 的实例。
若要访问 SparkSession 实例,请输入 spark
。 若要访问 SparkContext 实例,请输入 sc
。
重要 shell 参数
Spark Shell 命令(spark-shell
或 pyspark
)支持多个命令行参数。 若要查看参数的完整列表,请使用开关 --help
启动 Spark Shell。 上述某些参数可能仅适用于 Spark Shell 包装的 spark-submit
。
开关 | description | 示例 |
---|---|---|
--master MASTER_URL |
指定主 URL。 在 HDInsight 中,此值始终为 yarn 。 |
--master yarn |
--jars JAR_LIST |
要包括在驱动程序和执行程序类路径中的本地 jar 的逗号分隔列表。 在 HDInsight 中,此列表包含 Azure 存储或 Data Lake Storage 的默认文件系统路径。 | --jars /path/to/examples.jar |
--packages MAVEN_COORDS |
要包括在驱动程序和执行程序类路径中的 maven jar 坐标的逗号分隔列表。 依次搜索本地 maven 存储库、maven 中心存储库、使用 --repositories 指定的任何其他远程存储库。 坐标的格式为 groupId:artifactId:version。 |
--packages "com.microsoft.azure:azure-eventhubs:0.14.0" |
--py-files LIST |
要在 PYTHONPATH 上放置的 .zip 、.egg 或 .py 文件的逗号分隔列表(仅适用于 Python)。 |
--pyfiles "samples.py" |
后续步骤
- 有关概述,请参阅 Azure HDInsight 上的 Apache Spark 简介。
- 若要使用 Spark 群集和 SparkSQL,请参阅在 Azure HDInsight 中创建 Apache Spark 群集。
- 若要编写使用 Spark 处理流数据的应用程序,请参阅什么是 Apache Spark 结构化流式处理?。