重庆分公司,新征程启航
为企业提供网站建设、域名注册、服务器等服务
本篇内容主要讲解“flink的Transformation数据处理方法是什么”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“flink的Transformation数据处理方法是什么”吧!
为商丘等地区用户提供了全套网页设计制作服务,及商丘网站建设行业解决方案。主营业务为成都网站制作、成都网站建设、商丘网站设计,以传统方式定制建设网站,并提供域名空间备案等一条龙服务,秉承以专业、用心的态度为用户提供真诚的服务。我们深信只要达到每一位用户的要求,就会得到认可,从而选择与我们长期合作。这样,我们也可以走得更远!
将一个或多个DataStream生成新的DataStream的过程被称为Transformation。转换过程中,每种操作类型被定义为不同的Operator,Flink能将多个Transformation组合为一个DataFlow的拓扑。
所以DataStream的转换操作可以分为SingleDataStream、MultiDataStream、物理分区三个类型。
SingleDataStream:单个DataStream的处理逻辑。
MultiDataStream:多个DataStream的处理逻辑。
物理分区:对数据集中的并行度和数据分区调整转换的处理逻辑。
常用作对数据集内数据的清晰和转换。如将输入数据的每个数值全部加1,并将数据输出到下游。
val dataStream = evn.formElements(("a",3),("d",4),("c",4),("c",5),("a",5)) //方法一 val mapStream:DataStream[(String,Int)] = dataStream.map(t => (t._1,t._2+1)) //方法二 val mapStream:DataStream[(String,Int)] = dataStream.map( new MapFunction[(String,Int),(String, Int)]{ override def map(t: (String,Int)): (String,Int) ={ (t._1, t._2+1) } })
主要应用于处理输入一个元素转换为多个元素场景,如WordCount,将没行文本数据分割,生成单词序列。
val dataStream:DataStream[String] = environment.fromCollections() val resultStream[String] =dataStream.flatMap{str => str.split(" ")}
按条件对输入数据集进行筛选,输出符合条件的数据。
//通配符 val filter:DataStream[Int] = dataStream.filter{ _ %2 == 0} //运算表达式 val filter:DataStream[Int] = dataStream.filter { x => x % 2 ==0}
根据指定的key对输入的数据集执行Partition操作,将相同的key值的数据放置到相同的区域中。
将下标为1相同的数据放到一个分区
val dataStream = env.fromElements((1,5),(2,2),(2,4),(1,3)) //指定第一个字段为分区key val keyedStream: KeyedStream[(String,Int),Tuple]=dataSteam.keyBy(0)
与MapReduce中reduce原理基本一致,将输入的KeyedStream通过传入用户自定义的ReduceFunction滚动进行数据聚合处理,定义的ReduceFunction必须满足运算结合律和交换律。
val dataStream = env.fromElements(("a",3),("d",4),("c",2),("c",5),("a",5)) //指定第一个字段为分区key val keyedStream: KeyedStream[(String,Int),Tuple]=dataSteam.keyBy(0) //实现一:滚动第二个字段进行reduce相加求和 val reduceStream = keyedStream.reduce{(t1,t2) => (t1._1, t1._2+t2._2)} //实现二:实现ReduceFunction val reduceStream1 = keyedStream.reduce(new ReduceFunction[(String, Int)] { override def reduce(t1: (String,Int), t2:(String,Int)):(String, int) = { (t1._1, t1._2+ t2._2) } })
运行结果为:(c,2)(c,7)(a,3)(d,4)(a,8),结果不是最后求和的值,是将每条记录累加后的结果输出。
DataStream提供的聚合算子,根据指定的字段进行聚合操作,滚动产生一系列数据聚合结果。实际是将Reduce算子中函数进行封装,封装的聚合操作有sum、min、minBy、max、maxBy等。这样就不需要用户自己定义Reduce函数。
val dataStream = env.fromElements((1,5),(2,2),(2,4),(1,3)) //指定第一个字段为分区key val keyedStream: KeyedStream[(String,Int),Tuple]=dataSteam.keyBy(0) //对第二个字段进行sum统计 val sumStream: DataStream[(Int,Int)] = keyedStream.sum(1) //输出统计结果 sumStream.print()
聚合函数中传入参数必须是数值型,否则会抛出异常。
//统计计算指定key最小值 val minStream: DataStream[(Int,Int)] = keyedStream.min(1) //统计计算指定key最大值 val maxStream: DataStream[(Int,Int)] = keyedStream.max(1) //统计计算指定key最小值,返回最小值对应元素 val minByStream: DataStream[(Int,Int)] = keyedStream.minBy(1) //统计计算指定key最大值,返回最大值对应元素 val maxByStream: DataStream[(Int,Int)] = keyedStream.maxBy(1)
将两个或多个输入的数据集合并为一个数据集,需要保证输入待合并数据集和输出数据集格式一致。
//创建不同数据集 val dataStream1: DataStream [(String ,Int)]= env.fromElements(("a",3),("d",4),("c",2),("c",5),("a",5)) val dataStream2: DataStream [(String ,Int)]= env.fromElements(("d",1),("s",2),("a",4),("e",5),("a",6)) val dataStream3: DataStream [(String ,Int)]= env.fromElements(("a",2),("d",1),("s",2),("c",3),("b",1)) //合并两个数据集 val unionStream = dataStream1.union(dataStream2) //合并多个数据集 val allUnionStream = dataStream1.union(dataStream2,dataStream3)
该算子为了合并两种或多种不同类型的数据集,合并后会保留原始数据集的数类型。连接操作允许共享状态数据,也就是说在多个数据集之间可以操作和查看对方数据集的状态。
实例:dataStream1数据集为(String,Int)元祖类型,dataStream2数据集为Int类型,通过connect连接将两种类型数据结合在一起,形成格式为ConnectedStream是的数据集,其内部数据为[(String,Int),Int]的混合数据类型,保留两个数据集的数据类型。
val dataStream1: DataStream [(String ,Int)]= env.fromElements(("a",3),("d",4),("c",2),("c",5),("a",5)) val dataStream2: DataStream [Int]= env.fromElements(1,2,4,5,6) //连接两个数据集 val connectedStream :ConnectedStreams[(String, Int), Int] = dataStream1.connect(dataStream2)
注意:ConnectedStreams类型的数据集不能进行类似Print()操作,需转换为DataStream类型数据集。
ConnectedStreams提供map()和flatMap()需要定义CoMapFunction或CoFlatMapFunction分别处理输入的DataStream数据集,或直接传入MapFunction来分别处理两个数据集。
map()实例如下:
val resultStream = connectedStream.map(new CoMapFunction[(String,Int),Int,(Int, String)]{ //定义第一个数据集函数处理逻辑,输入值为第一个DataStream override def map1(in1: (String,Int)): (Int ,String) = { (int1._2 , in1._1) } //定义第二个数据集函数处理逻辑 override def amp2(in2: Int):(Int,String) = { (int2,"default") } })
以上实例中,两个函数会多线程交替执行产生结果,最后根据定义生成目标数据集。
flatMap()方法中指定CoFlatMapFunction。两个函数共享number变量,代码如下:
val resultStream2 = connectedStream.flatMap(new CoFlatMapFunction[(String,Int), Int ,(String ,Int , Int)]{ //定义共享变量 var number=0 //定义第一个数据集处理函数 override def flatMap1(in1:(String ,Int ), collector : Collector[(String,Int ,Int)]): Unit = { collector.collect((in1._1,in1._2,number)) } //定义第二个数据集处理函数 override def flatMap2(in2: Int, collector : Collector[(String , Int ,Int)]):Unit = { number=in2 } })
如果想通过指定的条件对两个数据集进行关联,可以借助keyBy韩硕或broadcast广播变量实现。keyBy会将相同key的数据路由在同一个Operator中。broadcast会在执行计算逻辑前,将DataStream2数据集广播到所有并行计算的Operator中,再根据条件对数据集进行关联。这两种方式本质是分布式join算子的基本实现方式。
//通过keyby函数根据指定的key连接两个数据集 val keyedConnect: ConnectedStreams[(String ,Int ), Int] = dataStream1.connect(dataStream2).keyBy(1,0) //通过broadcast关联两个数据集 val broadcastConnect: BroadcastConnectedStream [(String, Int), Int] = dataStream1.connect(dataStream2.broadcast())
将一个DataStream数据集按条件进行拆分,形成两个数据集的过程,union的逆向操作。实例:如调用split函数,指定条件判断,根据第二个字段的奇偶性将数据集标记出来,偶数标记为event,奇数标记为odd,再通过集合将标记返回,最终生成SplitStream数据集。
//创建数据集 val DataStream1: DataStream[(String, Int)] = env.fromElements(("a",3),("d",4),("c",2),("c",5),("a",5)) //合并连个DataStream数据集 val splitedStream : SplitStream[(String,Int)] = dataStream1.split(t => if(t._2 % 2 ==0 ) Seq("even") else Seq("odd"))
split函数只是标记数据,没有拆分数据,因此需要select函数根据标记将数据切分为不同数据集。
//筛选出偶数数据集 val evenStream: DataStream[(String,Int)] = splitedStream.select("even") //筛选出奇数数据集 val oddStream: DataStream[(String,Int)] = splitedStream.select("odd") //筛选出偶数和奇数数据集 val allStream: DataStream[(String,Int)] = splitedStream.select("even","odd")
Iterate适合于迭代计算,通过每一次的迭代计算,并将计算结果反馈到下一次迭代计算中。
//创建数据集,map处理为对数据分区根据默认并行度进行平衡 val DataStream = env.fromElements(3,1,2,1,5).map{ t:Int => t} val iterated = dataStream.iterate((input: ConnectedStreams[Int , String]) => { //定义两个map处理数据集,第一个map反馈操作,第二个map将数据输出到下游 val head= input.map(i => (i+1).toString, s => s) (head.filter( _ == "2"), head.filter (_ != "2")) },1000) //超过1000ms没有数据接入终止迭代
根据指定的分区策略将数据重新分发到不同节点的Task实例上执行,以此优化DataStream自身API对数据的分区控制。
随机将数据集中数据分配到下游算子的每个分区中,优点数据相对均衡,缺点失去原有数据的分区结构
val shuffleStream=dataStream.shuffle
循环将数据集中数据进行重分区,能尽可能保证每个分区的数据平衡,可有效解决数据集的倾斜问题。
val shuffleStream= dataStream.rebalance();
一种通过循环方式进行数据重平衡的分区策略,与Roundrobin Partitioning不同,它仅会对上下游继承的算子数据进行重新平衡,具体主要根据上下游算子的并行度决定。如上游算子的并发度为2,下游算子的并发度为4,上游算子中第一个分区数据按照同等比例将数据路由在下游的固定两个分区中,另一个分区也是一样。
//通过调用DataStream API中rescale()方法实现Rescaling Partitioning操作 val shuffleStream = dataStream.rescale();
将输入的数据集复制到下游算子的并行的Tasks实例中,下游算子Tasks可直接从本地内存中获取广播数据集,不再依赖网络传输。
这种分区策略适合于小集群,如大数据集关联小数据集时,可通过广播方式将小数据分发到算子的分区中。
//通过DataStream API的broadcast() 方法实现广播分区 val shuffleStream= dataStream.broadcast()
实现自定义分区器,调用DataStream API上的partitionCustom()方法将创建的分区器应用到数据集上。
如下,自定义分区器实现将字段中包含flink关键字的数据放在partition为0的分区中,其余数据执行随机分区策略,其中num Partitions是从系统中获取的并行度参数。
Object customPartitioner extends Partitioner[String]{ //获取随机数生成器 val r=scala.util.Random override def partition(key: String, numPartitions: Int): Int ={ //定义分区策略,key中如果包含a则放入0分区中,其他情况则根据Partitions num随机分区 if(key.contains("flink")) 0 else r.nextInt(numPartitions) } }
完成自定义分区器,调用DataStream API的partitionCustom应用分区器,第二个参数指定分区器使用到的字段,对于Tuple类型数据,分区字段可以通过字段名称指定,其他类型数据集则通过位置索引指定。
//通过数据集字段名称指定分区字段 dataStream.partitionCustom(customPartitioner,"filed_name"); //通过数据集字段索引指定分区字段 dataStream.partitionCustom(customPartitioner,0)
到此,相信大家对“flink的Transformation数据处理方法是什么”有了更深的了解,不妨来实际操作一番吧!这里是创新互联网站,更多相关内容可以进入相关频道进行查询,关注我们,继续学习!