SparkFE更多用法

简介

SparkFE是Spark兼容的发行版,因此SparkFE的用法与标准Spark一致,用户使用Scala、Java、Python和R编写的程序不需要修改源码,就可以在Local、Standalone、Mesos、Yarn和Kubernetes集群上运行。

注意,目前SparkFE只优化SparkSQL接口,使用其他API的应用暂不会被加速。

使用多种编程语言

使用Scala

参考Spark源码中的SparkSQLExample.scala文件。

// $example on:create_df$
val df = spark.read.json("examples/src/main/resources/people.json")

// Register the DataFrame as a SQL temporary view
df.createOrReplaceTempView("people")

val sqlDF = spark.sql("SELECT * FROM people")
sqlDF.show()

使用Java

参考Spark源码中的JavaSparkSQLExample.java文件。

使用Python

参考Spark源码中的sql_network_wordcount.py文件。

使用R语言

参考SparkR官方文档arrow-up-right的代码示例。

提交Spark任务

使用Local模式

提交任务到本地运行非常简单,使用local配置即可。

使用Standalone模式

提交任务到Standalone集群可以参考Spark Standalone Modearrow-up-right官方文档。

使用Mesos集群

提交任务到Mesos集群可以参考Running Spark on Mesosarrow-up-right官方文档。

使用Yarn集群

提交任务到Yarn集群可以参考Running Spark on YARNarrow-up-right官方文档。

使用Kubernetes集群

提交任务到Kubernetes集群可以参考Running Spark on Kubernetesarrow-up-right官方文档。

Last updated