美文网首页Spark_Flink_Hadoop
Spark实现本地开发

Spark实现本地开发

作者: kason_zhang | 来源:发表于2017-05-31 22:32 被阅读242次

Spark实现本地开发

代码如下

package sparksql

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.sql.SparkSession

/**
  * Created by IBM on 2017/4/15.
  */
object SparkSqlLearn extends App{

  val conf = new SparkConf().setMaster("spark://192.168.137.10:7077").setAppName("SparkSql")
    .setJars(List("D:\\java\\idea\\SparkLearn\\out\\artifacts\\SparkLearn_jar\\SparkLearn.jar"))
  //val conf = new SparkConf().setMaster("local").setAppName("SparkSql")
  val sc = new SparkContext(conf)
  val data = Array("app app","asd app","demo llp","demo")
  val re :RDD[(String,Int)]= sc.parallelize(data).flatMap(str => str.split(" ")).map(str => (str,1)).reduceByKey({case (x,y) => x + y})
  val re_array = re.collect()
  for((key,value) <- re_array){
    println(key + " value is " + value)
  }


  println(re.count())
  println("hello")
}

上面第一个要注意的就是setMaster("spark://192.168.137.10:7077")设置远程服务器
另外就是.setJars(List("D:\java\idea\SparkLearn\out\artifacts\SparkLearn_jar\SparkLearn.jar"))告诉Spark 集群我们要提交的作业的代码在哪里,也就是我们包含我们程序的Jar包的路径,记住路径中千万别包含中文。

配置打包:

Paste_Image.png

记得一定要勾选Include in project build

然后执行build,生成Jar包,最终生成的Jar如下:

Paste_Image.png

然后执行代码,输出结果如下:

Paste_Image.png

相关文章

网友评论

  • 31a0ce838cd4:这个setMaster("spark://192.168.137.10:7077") 和你开发环境在一个局域网吧?
    kason_zhang:@宋健_c104 是的

本文标题:Spark实现本地开发

本文链接:https://www.haomeiwen.com/subject/jvtsfxtx.html