SparkFE更多用法
简介
SparkFE是Spark兼容的发行版,因此SparkFE的用法与标准Spark一致,用户使用Scala、Java、Python和R编写的程序不需要修改源码,就可以在Local、Standalone、Mesos、Yarn和Kubernetes集群上运行。
注意,目前SparkFE只优化SparkSQL接口,使用其他API的应用暂不会被加速。
使用多种编程语言
使用Scala
参考Spark源码中的SparkSQLExample.scala文件。
// $example on:create_df$
val df = spark.read.json("examples/src/main/resources/people.json")
// Register the DataFrame as a SQL temporary view
df.createOrReplaceTempView("people")
val sqlDF = spark.sql("SELECT * FROM people")
sqlDF.show()使用Java
参考Spark源码中的JavaSparkSQLExample.java文件。
使用Python
参考Spark源码中的sql_network_wordcount.py文件。
使用R语言
参考SparkR官方文档的代码示例。
提交Spark任务
使用Local模式
提交任务到本地运行非常简单,使用local配置即可。
使用Standalone模式
提交任务到Standalone集群可以参考Spark Standalone Mode官方文档。
使用Mesos集群
提交任务到Mesos集群可以参考Running Spark on Mesos官方文档。
使用Yarn集群
提交任务到Yarn集群可以参考Running Spark on YARN官方文档。
使用Kubernetes集群
提交任务到Kubernetes集群可以参考Running Spark on Kubernetes官方文档。
Last updated