Apache Hive是建立在Apache Hadoop之上的数据仓库软件项目,用于提供数据查询和分析。Hive是Hadoop在HDFS上的SQL接口,它提供了类似于SQL的接口来查询存储在与Hadoop集成的各种数据库和文件系统中的数据。可以说从事数据开发工作,无论是在平时的工作中,还是在面试中,Hive具有举足轻重的地位,尤其是Hive的性能调优方面,不仅能够在工作中提升效率而且还可以在面试中脱颖而出。在本文中,我将分享十个性能优化技术,全文如下。
1.多次INSERT单次扫描表
默认情况下,Hive会执行多次表扫描。因此,如果要在某张Hive表中执行多个操作,建议使用一次扫描并使用该扫描来执行多个操作。
比如将一张表的数据多次查询出来装载到另外一张表中。如下面的示例,表My_table是一个分区表,分区字段为dt,如果需要在表中查询2个特定的分区日期数据,并将记录装载到2个不同的表中。
在以上查询中,Hive将扫描表2次,为了避免这种情况,我们可以使用下面的方式:
FROM My_table INSERT INTO teMp_table_20201115 SELECT * WHERE dt=’2020-11-15′ INSERT INTO teMp_table_20201116 SELECT * WHERE dt=’2020-11-16′
这样可以确保只对My_table表执行一次扫描,从而可以大大减少执行的时间和资源。
2.分区表
对于一张比较大的表,将其设计成分区表可以提升查询的性能,对于一个特定分区的查询,只会加载对应分区路径的文件数据,因此,当用户使用特定分区列值执行选择查询时,将仅针对该特定分区执行查询,由于将针对较少的数据量进行扫描,所以可以提供更好的性能。值得注意的是,分区字段的选择是影响查询性能的重要因素,尽量避免层级较深的分区,这样会造成太多的子文件夹。
现在问题来了,该使用哪些列进行分区呢?一条基本的法则是:选择低基数属性作为“分区键”,比如“地区”或“日期”等。
一些常见的分区字段可以是:
日期或者时间
比如year、Month、day或者hour,当表中存在时间或者日期字段时,可以使用这些字段。
地理位置
比如国家、省份、城市等
业务逻辑
比如部门、销售区域、客户等等
CREATE TABLE table_naMe ( col1 data_type, col2 data_type) PARTITIONED BY (partition1 data_type, partition2 data_type,…);
3.分桶表
通常,当很难在列上创建分区时,我们会使用分桶,比如某个经常被筛选的字段,如果将其作为分区字段,会造成大量的分区。在Hive中,会对分桶字段进行哈希,从而提供了中额外的数据结构,进行提升查询效率。
与分区表类似,分桶表的组织方式是将HDFS上的文件分割成多个文件。分桶可以加快数据采样,也可以提升join的性能(join的字段是分桶字段),因为分桶可以确保某个key对应的数据在一个特定的桶内(文件),所以巧妙地选择分桶字段可以大幅度提升join的性能。通常情况下,分桶字段可以选择经常用在过滤操作或者join操作的字段。
我们可以使用set.Hive.enforce.bucketing = true启用分桶设置。
当使用分桶表时,最好将bucketMapjoin标志设置为true,具体配置参数为:
CREATE TABLE table_naMe PARTITIONED BY (partition1 data_type, partition2 data_type,…) CLUSTERED BY (column_name1, column_name2,…) SORTED BY (column_name [ASC|DESC],…) INTO num_buckets BUCKETS;
4.对中间数据启用压缩
复杂的Hive查询通常会转换为一系列多阶段的MapReduce作业,并且这些作业将由Hive引擎链接起来以完成整个查询。因此,此处的“中间输出”是指上一个MapReduce作业的输出,它将用作下一个MapReduce作业的输入数据。
压缩可以显著减少中间数据量,从而在内部减少了Map和Reduce之间的数据传输量。
我们可以使用以下属性在中间输出上启用压缩。
set Hive.exec.compress.intermediate=true; set Hive.intermediate.compression.codec=org.apache.hadoop.io.compress.SnappyCodec; set Hive.intermediate.compression.type=BLOCK;
为了将最终输出到HDFS的数据进行压缩,可以使用以下属性:
set Hive.exec.compress.output=true;
下面是一些可以使用的压缩编解码器
org.apache.hadoop.io.compress.DefaultCodec org.apache.hadoop.io.compress.GzipCodec org.apache.hadoop.io.compress.BZip2Codec com.hadoop.compression.lzo.LzoCodec org.apache.hadoop.io.compress.Lz4Codec org.apache.hadoop.io.compress.SnappyCodec
5.Map端JOIN
Map端join适用于当一张表很小(可以存在内存中)的情况,即可以将小表加载至内存。Hive从0.7开始支持自动转为Map端join,具体配置如下:
SET Hive.auto.convert.join=true; — Hivev0.11.0之后默认true SET Hive.Mapjoin.Smalltable.filesize=600000000; — 默认 25M SET Hive.auto.convert.join.noconditionaltask=true; — 默认true,所以不需要指定Map join Hint SET Hive.auto.convert.join.noconditionaltask.size=10000000; — 控制加载到内存的表的大小
一旦开启Map端join配置,Hive会自动检查小表是否大于Hive.Mapjoin.Smalltable.filesize配置的大小,如果大于则转为普通的join,如果小于则转为Map端join。
关于Map端join的原理,如下图所示:
首先,Task A(客户端本地执行的task)负责读取小表a,并将其转成一个HashTable的数据结构,写入到本地文件,之后将其加载至分布式缓存。
然后,Task B任务会启动Map任务读取大表b,在Map阶段,根据每条记录与分布式缓存中的a表对应的hashtable关联,并输出结果
注意:Map端join没有Reduce任务,所以Map直接输出结果,即有多少个Map任务就会产生多少个结果文件。
6.向量化
Hive中的向量化查询执行大大减少了典型查询操作(如扫描,过滤器,聚合和连接)的CPU使用率。
标准查询执行系统一次处理一行,在处理下一行之前,单行数据会被查询中的所有运算符进行处理,导致CPU使用效率非常低。在向量化查询执行中,数据行被批处理在一起(默认=> 1024行),表示为一组列向量。
要使用向量化查询执行,必须以ORC格式(CDH 5)存储数据,并设置以下变量。
SET Hive.vectorized.execution.enabled=true
在CDH 6中默认启用Hive查询向量化,启用查询…
Image source: https://image.techweb.com.cn/upload/roll/2021/12/30/20211230422_2448.jpg?x-oss-process=image/format,jpg,image/resize,w_600
Conclusion
本文主要分享了10个Hive优化的基本技巧,希望能够为你优化Hive查询提供一个基本的思路。再次感谢你的阅读,希望本文对你有所帮助。