美文网首页
【秒懂StructuredStreaming】手把手教你写Str

【秒懂StructuredStreaming】手把手教你写Str

作者: 撸码小丑 | 来源:发表于2019-01-29 23:13 被阅读55次

链接:https://blog.csdn.net/lovechendongxing/article/details/81748553
作者:Spark技术咖

上一篇推文《史上最全StructuredStreaming编程指南》已经全面介绍了StructuredStreaming的相关概念和使用方法,这篇我们介绍基于StructuredStreaming进行实时流算子开发,并将结果输出到kafka中。
StructuredStreaming使用的数据类型是DataFrame和Dataset,从Spark 2.0开始,DataFrame和Dataset可以表示静态(有界数据),以及流式(无界数据)。与静态Dataset/ DataFrame类似,用户可以使用公共入口点SparkSession 从流源创建流DataFrame /Dataset,并对它们应用与静态DataFrame / Dataset相同的操作。如果你不熟悉Dataset / DataFrame,请戳推文《看完这篇文章,你就能熟练运用SparkSql》

接下来,我们以Append输出模式为例,讲解流式DataFrame的创建,基础操作和窗口操作,以及将结果输出到外部存储介质的方法。

1、流式DataFrame创建

以Kafka作为输入源为例。

a、引入两个依赖包
b、创建SparkSession入口,用于与集群资源管理器交互

c、指定kafka的地址和端口号,从Kafka的一个或者多个topic订阅输入源,创建流失DataFrame

设置maxOffsetsPerTrigger,控制断点续传一个batch最大处理条数,避免一次处理太多任务导致内存溢出。


2、流式DataFrame基本操作

基本操作指不包含聚合的操作。
流式DataFrame基本操作支持大部分的静态的DataFrame操作,如 从无类型,类似SQL的操作(例如select,where,join)到类型化的RDD类操作(例如map,filter,flatMap)都支持。


流式DataFrame部分不支持的操作如下:

  • 不支持take、distinct操作

  • 有条件地支持 streaming 和 static Datasets 之间的 Outer joins 。

    • 不支持使用 streaming Dataset 的 Full outer join
    • 不支持在右侧使用 streaming Dataset 的 Left outer join
    • 不支持在左侧使用 streaming Dataset 的 Right outer join
    • 不支持两种 streaming Datasets 之间的任何种类的 join
  • 不支持将DataFrame或者Dataset转成RDD再进行操作!!!

3、流式DataFrame窗口操作

Append模式的聚合操作因为需要使用Watermark删除旧的聚合结果,所以,只支持基于Watermark(用于控制延迟时间)的Event-Time(事件时间)聚合操作,不指定Watermark的聚合操作不支持。

基于Watermark(用于控制延迟时间)的Event-Time(事件时间)聚合操作 一般通过Window时间窗口实现。

涉及四个概念:

  • 窗口长度:窗口的持续时间,如10分钟的数据为一个窗口

  • 窗口滑动间隔:窗口操作的时间间隔,比如间隔5分钟,表示每5分钟生成一个Window

  • 计算触发时间:依据指定的trigger batch时长作为触发时长,Spark去Kafka订阅这个时长产生的数据,获取数据的Event-Time,将数据分发到对应的Window中进行计算

  • Watermark:wm的值 = 当前batch数据中最大 Event-Time - late threshold 。Event-Time大于wm的延迟数据将被处理 ,但数据小于的数据将被丢弃。

当窗口的上界小于wm值,代表窗口中的所有数据的Event-Time都小于wm了,不需要在对这个窗口更新,所以这个窗口在Result Table中的聚合结果将被输出到外部存储介质Kafka

实例

以每隔5分钟,统计前10分钟出现的单词的次数,并将结果写入Kafka为例,讲解代码编写和运行机制:

1)代码如下:

每隔5分钟,对10分钟时间窗口和单词word进行分组,并统计每个分组的个数。 当数据延迟超过10分钟到达Spark,延迟数据会被忽略。


  • a、 withWatermark函数第一个参数是 数据表中的时间戳字段的字段名,如图中的timestamp,第二个参数是延迟的时间阈值,如图中的10 分钟

注意:withWatermark要紧跟dataFrame,写在groupBy之前,否则会报错

  • b、window函数第一个参数是时间戳字段名,需要与withWatermark函数的一个参数名一致,否则会报错,第二个参数是窗口长度,第三个参数是滑动间隔
2)实现机制如下图:
  • a、横坐标是触发时长,5分钟触发一次执行,Spark去Kafka订阅这个时长产生的数据,获取数据的Event-Time,将数据分发到对应的Window中进行计算。
    如图中,12:15~12:20这个batch获取的数据共4条,其中12:15和12:21是正常到达Spark的,而12:08和12:13这两条是延迟到达Spark

  • b、纵坐标是数据的Event-Time

  • c、蓝色虚线上的点是每次batch的数据中,获取到的最大的Event-Time

  • d、红色实现代码当前计算得到的最大的waterMark

  • e、黄色实心的圆圈代表正常抵达的数据;红色实心的圆圈代表延迟的数据,但是在延迟阈值范围内,有被处理;红色空心的圆圈代码延迟的数据,但在延迟阈值范围外,数据被丢弃了。

    如图中,12:25分触发时,上一个batch 计算得到的wm=batch最大的event-time 12:21 减去 设定的 延迟阈值 10分钟 = 12:11分,因为12:00~12:10这个窗口的最大值已经全部小于wm了,所以,该窗口的值从Result Table输出到Kafka

    同理,12:30分触发时,上一个batch 计算得到的wm=batch最大的event-time 12:26 减去 设定的 延迟阈值 10分钟 = 12:16分,因为12:05~12:15这个窗口的最大值已经全部小于wm了,所以,该窗口的值从Result Table输出到Kafka

3)流式结果输出到Kafka,并启动流式计算
  • 1 将结果写入kafka的一个topic,并调用start函数启动实时流计算,300秒触发一次执行

  • 2 将结果写入kafka的多个topic,通过在dataframe的topic字段指明每行具体所属的topic,并调用start函数启动实时流计算,300秒触发一次执行

    注意:一定要调用start()函数,实时流计算才会启动!!!


    image.png
4) 实时流作业监控

通过异步的方式对实时流进行监控,输出每次batch触发从Kafka获取的起始和终止的offset,总条数,以及通过最大Event-Time计算得到的Watermark等。
代码如下:


每次batch触发得到的日志如下:


end

相关文章

网友评论

      本文标题:【秒懂StructuredStreaming】手把手教你写Str

      本文链接:https://www.haomeiwen.com/subject/awbfsqtx.html