spark

作者: 乔一波一 | 来源:发表于2019-03-11 21:15 被阅读0次

1.什么是spark

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop

MapReduce的通用并行计算框架,Spark拥有HadoopMapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark是Scala编写,方便快速编程。

2.Spark与MapReduce的区别

1).都是分布式计算框架,Spark基于内存,MR基于HDFS。Spark处理数据的能力一般是MR的十倍以上,

2).Spark中除了基于内存计算外,还有DAG有向无环图来切分任务的执行先后顺序。

3.Spark运行模式

Local: 多用于本地测试,如在eclipse,idea中写程序测试等。

Standalone: Standalone是Spark自带的一个资源调度框架,它支持完全分布式。

Yarn: Hadoop生态圈里面的一个资源调度框架,Spark也是可以基于Yarn来计算的。

Mesos: 资源调度框架。

4.Spark 核心RDD

概念:RDD(Resilient Distributed Dateset),弹性分布式数据集。

RDD五大特性:

1. RDD是由一系列的partition组成的。

2. 函数是作用在每一个partition(split)上的。

3. RDD之间有一系列的依赖关系。

4. 分区器是作用在K,V格式的RDD上。

5. RDD提供一系列最佳的计算位置。

 1):什么是K,V格式的RDD?

答:如果RDD里面存储的数据都是二元组对象,那么这个RDD我们就叫做K,V格式的RDD。

2): 哪里体现RDD的弹性(容错)?

partition数量,大小没有限制,体现了RDD的弹性。

RDD之间依赖关系,可以基于上一个RDD重新计算出RDD。

3): 哪里体现RDD的分布式?

RDD是由Partition组成,partition是分布在不同节点上的。

5.Spark代码流程

1. 创建SparkConf对象

1)可以设置Application name。

2) 可以设置运行模式及资源需求。

2. 创建SparkContext对象

3. 基于Spark的上下文创建一个RDD,对RDD进行处理。

4. 应用程序中要有Action类算子来触发Transformation类算子执行。

5. 关闭Spark上下文对象SparkContext。

6.Standalone集群搭建及测试

node01 (Master) node02,node03(Worker)

1.上传压缩包到虚拟机,解压到/opt目录下

2.进入到/opt下,修改文件名字为spark-2.3.1

3.进入到  /opt/spark-2.3.1/conf 目录下

复制备份如下两个文件

4.修改 slaves 下面的配置如下

配置Worker节点

5.修改 spark-env.sh 为如下配置

配置Master主机,端口,worker核心数,内存大小

6.分发到node02,node03

7.启动Spark集群

进入 sbin  ./start-all.sh

8.webUI测试

成功

9.测试Spark自带的计算圆周率的example

进入到 Spark的/bin 目录,下面的 spark-submit用于提交任务

./spark-submit --master spark://node01:7077 --class org.apache.spark.examples.SparkPi ../examples/jars/spark-examples_2.11-2.3.1.jar 100

相关文章

网友评论

      本文标题:spark

      本文链接:https://www.haomeiwen.com/subject/tyacpqtx.html