重庆分公司,新征程启航

为企业提供网站建设、域名注册、服务器等服务

Spark优化中小文件是否需要合并

Spark优化中小文件是否需要合并,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。

我们提供的服务有:网站制作、成都网站制作、微信公众号开发、网站优化、网站认证、凌海ssl等。为上1000+企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的凌海网站制作公司

我们知道,大部分Spark计算都是在内存中完成的,所以Spark的瓶颈一般来自于集群(standalone, yarn, mesos,  k8s)的资源紧张,CPU,网络带宽,内存。Spark的性能,想要它快,就得充分利用好系统资源,尤其是内存和CPU。有时候我们也需要做一些优化调整来减少内存占用,例如将小文件进行合并的操作。

一、问题现象

我们有一个15万条总数据量133MB的表,使用SELECT * FROM  bi.dwd_tbl_conf_info全表查询耗时3min,另外一个500万条总数据量6.3G的表ods_tbl_conf_detail,查询耗时23秒。两张表均为列式存储的表。

大表查询快,而小表反而查询慢了,为什么会产生如此奇怪的现象呢?

二、问题探询

数据量6.3G的表查询耗时23秒,反而数据量133MB的小表查询耗时3min,这非常奇怪。我们收集了对应的建表语句,发现两者没有太大的差异,大部分为String,两表的列数也相差不大。

CREATE TABLE IF NOT EXISTS  `bi`.`dwd_tbl_conf_info`  (   `corp_id` STRING COMMENT '',   `dept_uuid` STRING COMMENT '',   `user_id` STRING COMMENT '',   `user_name` STRING COMMENT '',   `uuid` STRING COMMENT '',   `dtime` DATE COMMENT '',   `slice_number` INT COMMENT '',   `attendee_count` INT COMMENT '',   `mr_id` STRING COMMENT '',   `mr_pkg_id` STRING COMMENT '',   `mr_parties` INT COMMENT '',   `is_mr` TINYINT COMMENT 'R',   `is_live_conf` TINYINT COMMENT '' )
CREATE TABLE IF NOT EXISTS `bi`.`ods_tbl_conf_detail` (     `id` string,     `conf_uuid` string,     `conf_id` string,     `name` string,     `number` string,     `device_type` string,     `j_time` bigint,     `l_time` bigint,     `media_type` string,     `dept_name` string,     `UPDATETIME` bigint,     `CREATETIME` bigint,     `user_id` string,     `USERAGENT` string,     `corp_id` string,     `account` string   )

因为两张表均为很简单的SELECT查询操作,无任何复杂的聚合join操作,也无UDF相关的操作,所以基本确认查询慢的应该发生的读表的时候,我们将怀疑的点放到了读表操作上。通过查询两个查询语句的DAG和任务分布,我们发现了不一样的地方。

查询快的表,查询时总共有68个任务,任务分配比如均匀,平均7~9s左右,而查询慢的表,查询时总共1160个任务,平均也是9s左右。如下图所示:

Spark优化中小文件是否需要合并

Spark优化中小文件是否需要合并

至此,我们基本发现了猫腻所在。大表6.3G但文件个数小,只有68个,所以很快跑完了。而小表虽然只有133MB,但文件个数特别多,导致产生的任务特别多,而由于单个任务本身比较快,大部分时间花费在任务调度上,导致任务耗时较长。

那如何才能解决小表查询慢的问题呢?

三、业务调优

那现在摆在我们面前就存在现在问题:

  • 为什么小表会产生这么小文件

  • 已经产生的这么小文件如何合并

带着这两个问题,我们和业务的开发人员聊了一个发现小表是业务开发人员从原始数据表中,按照不同的时间切片查询并做数据清洗后插入到小表中的,而由于时间切片切的比较小,导致这样的插入次数特别多,从而产生了大量的小文件。

那么我们需要解决的问题就是2个,如何才能把这些历史的小文件进行合并以及如何才能保证后续的业务流程中不再产生小文件,我们指导业务开发人员做了以下优化:

  • 使用INSERT OVERWRITE bi.dwd_tbl_conf_info SELECT * FROM  bi.dwd_tbl_conf_info合并下历史的数据。由于DLI做了数据一致性保护,OVERWRITE期间不影响原有数据的读取和查询,OVERWRITE之后就会使用新的合并后的数据。合并后全表查询由原来的3min缩短到9s内完成。

  • 原有表修改为分区表,插入时不同时间放入到不同分区,查询时只查询需要的时间段内的分区数据,进一步减小读取数据量。

看完上述内容是否对您有帮助呢?如果还想对相关知识有进一步的了解或阅读更多相关文章,请关注创新互联行业资讯频道,感谢您对创新互联的支持。


新闻标题:Spark优化中小文件是否需要合并
本文地址:http://cqcxhl.cn/article/ggjodg.html

其他资讯

在线咨询
服务热线
服务热线:028-86922220
TOP