Flink
最后更新于
最后更新于
Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并发化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。
Flink与Storm类似,属于事件驱动型实时流系统。
Streaming-first、流处理引擎。
Fault-tolerant,容错,可靠性,checkpoint。
Scalable,可扩展性,1000节点以上。
Performance,性能,高吞吐量, 低延迟。
低延时:提供ms级时延的处理能力。
Exactly Once:提供异步快照机制,保证所有数据真正处理一次。
HA:JobManager支持主备模式,保证无单点故障。
水平扩展能力:TaskManager支持手动水平扩展。
Flink能够支持Yarn,能够从HDFS和HBase中获取数据。
能够使用所有的Hadoop的格式化输入和输出。
能够使用Hadoop原有的Mappers和Reducers,并且能与FLink的操作混合使用。
能够更快的运行Hadoop作业。
Flink最适合的应用场景是低延时的数据处理场景:高并发处理数据,实验毫秒级,且兼具可靠性。
典型应用场景有:
互联网金融业务。
点击流日志处理。
舆情监控。
图:Storm和Flink流式计算框架的性能对比
通过对比,可以看出Flink流计算框架比Storm的性能高的多。
图:Flink在FusionInsight中的位置
FusionInsight HD提供大数处理环境,基于社交开源软件增强,按照场景选择业界最佳实践。
FLink是批处理和流处理结合的统计计算框架,用于高并发pipeline处理数据,实验毫秒级的场景响应,且兼具可靠性。
在FusionInsight HD集群中,Flink主要组以下组件进行交互:
HDFS:Flink在HDFS文件系统中读写数据(必选)。
YARN:Flink任务的运行以来Yarn来进行资源的调度管理(必选)。
Zookeeper:FLink的checkpoint的实现依赖Zookeeper。(必选)
Kafka:Flink可以接收Kafka发送的数据流(可选)。
图:Flink架构图
##Flink技术栈:
图:Flink技术栈
API:DataStream API是用于流处理的接口。
DataSet API是用于批处理的接口。它们都会使用单独编译的处理方式。
Core:Flink的Core叫做Runtime,是Flink流处理和批处理时共用的一个引擎。Runtime以
Deploy(部署方式):在最底层,Flink提供了三种部署模式。分别为Local,Cluster,Cloud。
DataStream:FLink用类DataStream来表示程序中的流式数据、用户可以认为它们是含有重复数据的不可修改的集合(Collection),DataStaram中元素的数据时无限的。
图:DataStream类
图:处理流程
Data Source:流数据源的接入,支持HDFS文件,Kafka,文本数据等。
Transformations:流数据转换。
Data sink:数据输出,支持HDFS,Kafka,文本等。
Flink数据源:
批处理:
Files:HDFS,Local file system,MapReduce file system,Text,csv等。
JDBC
HBase
Collections
流处理:
Files
Socket streams
Kafka
Flume
Collections
RabbitMQ
DataStream Transformation:
常用的Transformation有:map(), flatMap(), filter(), keyBy(), partition(), rebalance(), shuffle(), broadcast(), project()等。
图:Flink架构,运行流程
关键角色概念:
Client:需求提出方,负责提交需求(应用),构造流图。
JobManager:负责应用的资源管理,根据应用的需求,想资源管理部门(ResourceManager)申请资源。
Yarn的ResourceManager:资源管理部门,负责整个集群的资源统一调度和分配。
TaskManager:负责实际计算工资,一个应用会拆给多个TaskManager来进行计算。
TaskSlot:任务槽,类似于Yarn当中的Container,用于资源的封装。但是在FLink中,taskSlot只负责封装内存的资源,不包含CPU的资源。每一个TaskManager中会包含3个TaskSlot,所以每一个TaskManager中最多能并发执行的任务是可控的,最多3个。TaskSlot有独占的内存资源,在一个TaskManager中可以运行不同的任务。
Task:TsakSlot当中的Task就是任务执行的具体单元。
图:Flink on YARN运行流程图
首先Flink Yarn Client会检验系统是否有足够的资源来启动YARN集群,如果资源足够,它就会将Jar包和配置文件上传到HDFS。
Flink YARN CLient首先与Yarn ResourceManager进行通信,申请启动applicationMaster,在FLink Yarn的集群中,ApplicationMaster与Flink JobManager被封装在同一个container中。
ApplicationMaster在启动的过程中,会和Yarn的ResourceManager进行交互,向ResourceManager申请所需要的TaskManager Container。当ApplicationMaster申请到TaskManager Container以后,它会在所对应的NodeManager节点上启动TaskManager进程。
由于ApplicationMaster和Flink JobManager是封装在同一个Container中的,所以ApplicationMaster会将JobManager的IPC地址,通过HDFS共享的方式通知到各个TaskManager上。TaskManager启动成功以后,就会向JobManager进行注册。
当所有的TaskManager都向JobManager注册成功以后,Flink基于Yarn的集群就启动成功了。Flink Yarn Client就可以提交FLink job到Flink JobManager上,然后进程后面的映射、调度、计算等处理。
用户实现的Flink程序是由Stream数据和Transformation算子组成。
Stream是一个中间结果数据,而Transformation是算子,它对一个或多个输入Stream进行计算处理,输出一个或多个结果Stream。
图:Flink原理图
Flink程序在执行的时候,会被映射成一个Streaming Dataflow,一个Streaming Dataflow是由一组Stream和Transformation Operator组成的。在启动时从一个或多个Source Operator开始,结束与一个或多个Sink Operator。
Source操作符载入数据,通过map(), keyBy(), apply()等Transformation操作符处理stream。数据处理完成后,调用sink写入相关存储系统,如HDFS、HBase、Kafka等。
###Flink并行数据流:
图:Flink并行数据流
一个Stream可以被分成多个Stream的分区,也就是Stream Partition。一个Operator也可以被分为多个Operator Subtask。如上图中,Source被分成Source1和Source2,它们分别为Source的Operator Subtask。每一个Operator Subtask都是在不同的线程当中独立执行的。一个Operator的并行度,就等于Operator Subtask的个数。上图Source的并行度为2。而一个Stream的并行度就等于它生成的Operator的并行度。
数据在两个operator之间传递的时候有两种模式:
One to One模式:两个operator用此模式传递的时候,会保持数据的分区数和数据的排序;如上图中的Source1到Map1,它就保留的Source的分区特性,以及分区元素处理的有序性。
Redistributing 模式:这种模式会改变数据的分区数;每个一个operator subtask会根据选择transformation把数据发送到不同的目标subtasks,比如keyBy()会通过hashcode重新分区,broadcast()和rebalance()方法会随机重新分区;
###Flink操作符链:
图:FLink操作符链
Flink内部有一个优化的功能,它会根据上下游算子的紧密程度来进行优化,紧密程度高的算子可以把它优化成一个大的Operator。如图中的Source和Map紧密程度很高,就可以优化成一个Operator Chain。实际上就是一个执行链,每个执行链都会在TaskManager中一个独立的线程汇总执行。Operator Chain实际上就是一个Operator,keyBy也是一个Operator,sink也是一个Operator,图的上半部分都是通过Stream连接,每个Operator都在一个独立的Task中运行。下半部分是上半部分的一个并行版本,对每一个Task都并行为多个Subtask。
Flink支持基于时间窗口操作,也支持基于数据的窗口操作:
按分割标准划分:timeWindow、countWindow。
按窗口行为划分:Tumbling Window, Sliding Window、自定义窗口。
TimeWindow:时间窗口,按固定的时间划分的窗口。
CountWindow:事件窗口,窗口是以数据驱动的,比如每经过100个元素,就把这100个元素归结到一个事件窗口当中。
图:时间和事件窗口示意图
Tumbing Windows:滚动窗口,窗口之间时间点不重叠。它是按照固定的时间,或固定的事件个数划分的,分别可以叫做滚动时间窗口和滚动事件窗口。
图:时间滚动窗口示意图
Sliding Windows:滑动窗口,窗口之间时间点存在重叠。对于某些应用,它们需要的时间是不间断的,需要平滑的进行窗口聚合。例如,可以每30s记算一次最近1分钟用户所购买的商品数量的总数,这个就是时间滑动窗口;或者每10个客户点击购买,然后就计算一下最近100个客户购买的商品的总和,这个就是事件滑动窗口。
图 :滑动窗口示意图
Session Windows:会话窗口,经过一段设置时间无数据认为窗口完成。
图:会话窗口示意图
ckeckpoint机制是FLink运行过程中容错的重要手段。
checkpoint机制不断绘制流应用的快照,流应用的状态快照被保存在配置的位置(如:JobManager的内存里,或者HDFS上)。
Flink分布式快照机制的核心是barriers,这些barriers周期性插入到数据流中,并作为数据流的一部分随之流动。
图:checkpoint机制
Checkpoint机制是Flink可靠运行的基石,可以保证Flink集群在某个算子因为某些原因(如异常退出)出现故障时,能够将整个应用流图的状态恢复到故障之前的某一状态,保证应用流图状态的一致性。
该机制可以保证应用在运行过程中出现失败时,应用的所以有状态能够从某一个检测点恢复,保证数据仅被处理一次(Exactly Once)。另外,也可以选择至少处理一次(at least once)。
Checkpoint机制具体执行过程:
图:Checkpoint机制执行具体过程
每个需要checkpoint的应用,它在启动的时候,Flink的JobManager就会为它创建一个checkpointCoordinator。checkpointCoordinator它全权负责本应用的快照的制作,用户可以通过checkpointCoordinator中的setCheckpointInterval接口设置checkpoint的周期。
Checkpoint机制的第一步,就是CheckpointCoordinator周期性的向该流应用,所有的source算子发送barrier。
第二步,Source算子接收到一个barrier后,便暂停处理数据,将当前的状态制作成快照,并保存到指定的持久化存储中,最后它再向CheckpointCoordinator报告自己的快照制作情况。同时向自身下游所有算子广播该barrier。然后恢复该算子的数据处理工作。
下游的算子接收到barrier后,也会暂停自的数据处理过程,同2过程。
最后CheckpointCoordinator会确认它接收到的报告,如果收到本周期的所有算子的快照就认为快照制作成功,否则失败。
多Source源的Checkpoint机制:
图:多Source源的Checkpoint机制
当一个算子上游有多个来源时,它会将首先接收到barrier端阻塞掉,等待其他输入端的barrier,只有当接收到所有输入端的barrier时,该算子才会开始合并barrier执行制作快照过程,并将合并后的barrier广播到下游算子。
以上