古道长亭

Contact me with ixiaoqiang0011@gmail.com


  • 首页

  • 归档

  • 分类

  • 关于

  • Book

  • 搜索

HBASE原理深入

时间: 2023-05-26   |   分类: hbase   | 字数: 3955 字 | 阅读约: 8分钟 | 阅读次数:

HBASE原理深入

1. 读数据流程

HBase读操作

1)首先从zk找到meta表的region位置,然后读取meta表中的数据,meta表中存储了用户表的region信息

2)根据要查询的namespace、表名和rowkey信息。找到写入数据对应的region信息

3)找到这个region对应的regionServer,然后发送请求

4)查找对应的region

5)先从memstore查找数据,如果没有,再从BlockCache上读取

​ HBase上Regionserver的内存分为两个部分,一部分作为Memstore,主要用来写;另外一部分作为BlockCache,主要用于读数据;

6)如果BlockCache中也没有找到,再到StoreFile上进行读取

​ 从storeFile中读取到数据之后,不是直接把结果数据返回给客户端,而是把数据先写入到BlockCache中,目的是为了加快后续的查询;然后在返回结果给客户端。

2. 写数据流程

1)首先从zk找到meta表的region位置,然后读取meta表中的数据,meta表中存储了用户表的region信息

2)根据namespace、表名和rowkey信息。找到写入数据对应的region信息

3)找到这个region对应的regionServer,然后发送请求

4)把数据分别写到HLog(write ahead log)和memstore各一份

5)memstore达到阈值后把数据刷到磁盘,生成storeFile文件

6)删除HLog中的历史数据

3. Flush(刷写)与compact(合并)机制

  • flush机制

    • 当memstore的大小超过这个值的时候,会flush到磁盘,默认为128M

      <property> 
        <name>hbase.hregion.memstore.flush.size</name> 
        <value>134217728</value> 
      </property>
      
    • 当memstore中的数据时间超过1小时,会flush到磁盘

      <property> 
        <name>hbase.regionserver.optionalcacheflushinterval</name> 
        <value>3600000</value> 
      </property>
      
    • HregionServer的全局memstore的大小,超过该大小会触发flush到磁盘的操作,默认是堆大小的40%

      <property> 
        <name>hbase.regionserver.global.memstore.size</name> 
        <value>0.4</value> 
      </property>
      
    • 手动flush

      flush tablename
      
  • 阻塞机制

    以上是Store中memstore数据刷写磁盘的标准,但是Hbase中是周期性的检查是否满足以上标准满足则进行刷写,但是如果在下次检查到来之前,数据疯狂写入Memstore中,会出现什么问题呢?

    会触发阻塞机制,此时无法写入数据到Memstore,数据无法写入Hbase集群。

    • memstore中数据达到512MB

      计算公式:hbase.hregion.memstore.flush.size * hbase.hregion.memstore..block.multiplier

      hbase.hregion.memstore.flush.size刷写的阀值,默认是 134217728,即128MB。

      hbase.hregion.memstore.block.multiplier是一个倍数,默认 是4。

    • RegionServer全部memstore达到规定值

      hbase.regionserver.global.memstore.size.lower.limit是0.95,

      hbase.regionserver.global.memstore.size是0.4,

      堆内存总共是 16G,

      触发刷写的阈值是:6.08GB

      触发阻塞的阈值是:6.4GB

  • compact合并机制

    • minor compact小合并

      在将Store中多个HFile(StoreFile)合并为一个HFile(这个过程中,删除和更新的数据仅仅只是做了标记,并没有物理移除,这种合并的触发频率很高。)

      minor compact文件选择标准由以下几个参数共同决定:

      <!--待合并文件数据必须大于等于下面这个值--> 
      <property> 
        <name>hbase.hstore.compaction.min</name> 
        <value>3</value> 
      </property> 
      <!--待合并文件数据必须小于等于下面这个值--> 
      <property> 
        <name>hbase.hstore.compaction.max</name> 
        <value>10</value> 
      </property>
      <!--默认值为128m,表示文件大小小于该值的store file 一定会加入到minor compaction的store file中 --> 
      <property> 
        <name>hbase.hstore.compaction.min.size</name> 
        <value>134217728</value>
      </property> 
      <!--默认值为LONG.MAX_VALUE,表示文件大小大于该值的store file 一定会被minor compaction排除-->
      <property> 
        <name>hbase.hstore.compaction.max.size</name> 
        <value>9223372036854775807</value>
      </property>
      

      触发条件: 在进行memstore flush前后都会进行判断是否触发compact; 周期性检查是否需要进行compaction操作,由参数:hbase.server.thread.wakefrequency决定,默认值是10000 millseconds

    • major compact大合并

      合并Store中所有的HFile为一个HFile

      这个过程有删除标记的数据会被真正移除,同时超过单元格maxVersion的版本记录也会被删除。合并频率比较低,默认7天执行一次,并且性能消耗非常大,建议生产关闭(设置为0),在应用空闲时间手动触发。一般可以是手动控制进行合并,防止出现在业务高峰期

      触发条件:

      • major compaction触发时间条件

        <!--默认值为7天进行一次大合并,--> 
        <property> 
          <name>hbase.hregion.majorcompaction</name> 
          <value>604800000</value> 
        </property>
        
      • 手动触发 major_compact tablename

4. Region拆分机制

Region中存储的是大量的rowkey数据 ,当Region中的数据条数过多的时候,直接影响查询效率.当Region过大的时候.HBase会拆分Region , 这也是Hbase的一个优点

4.1 拆分策略

  • ConstantSizeRegionSplitPolicy

    0.94以前默认的切分策略

    当region大小大于某个阈值(hbase.hregion.max.filesize=10G)之后就会触发切分,
    一个region等分为2个region。
    
    但是在生产线上这种切分策略却有相当大的弊端:切分策略对于大表和小表没有明显的区分。
    阈值(hbase.hregion.max.filesize)设置较大对大表比较友好,但是小表就有可能不会触
    发分裂,极端情况下可能就1个,这对业务来说并不是什么好事。
    如果设置较小则对小表友好,但一个大表就会在整个集群产生大量的region,这对于
    集群的管理、资源使用、failover来说都不是一件好事。
    
  • IncreasingToUpperBoundRegionSplitPolicy

    0.94版本~2.0版本默认切分策略

    切分策略稍微有点复杂,总体看和ConstantSizeRegionSplitPolicy思路相同,
    一个region大小大于设置阈值就会触发切分。但是这个阈值并不像
    ConstantSizeRegionSplitPolicy是一个固定的值,而是会在一定条件下不断调整,
    调整规则和region所属表在当前regionserver上的region个数有关系. 
    
    region split的计算公式是:
    regioncount^3 * 128M * 2,当region达到该size的时候进行split
    例如:
    第一次split:1^3 * 256 = 256MB
    第二次split:2^3 * 256 = 2048MB
    第三次split:3^3 * 256 = 6912MB
    第四次split:4^3 * 256 = 16384MB > 10GB,因此取较小的值10GB
    后面每次split的size都是10GB了
    
  • SteppingSplitPolicy

    2.0版本默认切分策略

    这种切分策略的切分阈值又发生了变化,相比IncreasingToUpperBoundRegionSplitPolicy
    简单了一些,依然和待分裂region所属表在当前regionserver上的region个数有关系,
    
    如果region个数等于1,切分阈值为flushsize*2,否则为MaxRegionFileSize。
    这种切分策略对于大集群中的大表、小表会比IncreasingToUpperBoundRegionSplitPolicy
    更加友好,小表不会再产生大量的小region,而是适可而止。
    
  • KeyPrefixRegionSplitPolicy

    根据rowKey的前缀对数据进行分组,这里是指定rowKey的前多少位作为前缀,
    比如rowKey都是16位的,指定前5位是前缀,那么前5位相同的rowKey在进行
    regionsplit的时候会分到相同的region中。
    
  • DelimitedKeyPrefixRegionSplitPolicy

    保证相同前缀的数据在同一个region中,例如rowKey的格式为:userid_eventtype_eventid,
    指定的delimiter为_,则split的的时候会确保userid相同的数据在同一个region中。
    
  • DisabledRegionSplitPolicy

    不启用自动拆分,需要指定手动拆分

4.2 RegionSplitPolicy的应用

Region拆分策略可以全局统一配置,也可以为单独的表指定拆分策略。

  • 通过hbase-site.xml全局统一配置(对hbase所有表生效)

    <property> 
      <name>hbase.regionserver.region.split.policy</name>    
      <value>org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy</value> 
    </property>
    
  • 通过Java API为单独的表指定Region拆分策略

    HTableDescriptor tableDesc = new HTableDescriptor("test1"); tableDesc.setValue(HTableDescriptor.SPLIT_POLICY, IncreasingToUpperBoundRegionSplitPolicy.class.getName()); tableDesc.addFamily(new HColumnDescriptor(Bytes.toBytes("cf1"))); 
    admin.createTable(tableDesc);
    
  • 通过HBase Shell为单个表指定Region拆分策略

    create 'test2', {METADATA => {'SPLIT_POLICY' => 'org.apache.hadoop.hbase.regionserver.IncreasingToUpperBoundRegionSplitPolicy'}},{NAME => 'cf1'}
    

5. 预分区

当一个table刚被创建的时候,Hbase默认的分配一个region给table。也就是说这个时候,所有的读写请求都会访问到同一个regionServer的同一个region中,这个时候就达不到负载均衡的效果了,集群中的其他regionServer就可能会处于比较空闲的状态。解决这个问题可以用pre-splitting,在创建table的时候就配置好,生成多个region.

  • 增加数据读写效率

  • 负载均衡,防止数据倾斜

  • 方便集群容灾调度region

每一个region维护着startRow与endRowKey,如果加入的数据符合某个region维护的rowKey范围,则该数据交给这个region维护

手动指定预分区:

create 'person','info1','info2',SPLITS => ['1000','2000','3000']

也可以把分区规则创建于文件中

vim split.txt
aaa 
bbb 
ccc 
ddd
create 'student','info',SPLITS_FILE => '/root/hbase/split.txt'

6. Region合并

Region的合并不是为了性能,而是出于维护的目的

  • 通过Merge类冷合并Region

    需要先关闭hbase集群

    需求:需要把student表中的2个region数据进行合并:

    student,,1593244870695.10c2df60e567e73523a633f20866b4b5.

    student,1000,1593244870695.0a4c3ff30a98f79ff6c1e4cc927b3d0d.

    hbase org.apache.hadoop.hbase.util.Merge student \ student,,1595256696737.fc3eff4765709e66a8524d3c3ab42d59. \ student,aaa,1595256696737.1d53d6c1ce0c1bed269b16b6514131d0.
    
  • 通过online_merge热合并Region

    与冷合并不同的是,online_merge的传参是Region的hash值,而Region的hash值就是Region名称的最后那段在两个.之间的字符串部分。

    需求:需要把student表中的2个region数据进行合并:

    student,,1587392159085.9ca8689901008946793b8d5fa5898e06. \

    student,aaa,1587392159085.601d5741608cedb677634f8f7257e000.

    需要进入hbase shell:

    merge_region 'c8bc666507d9e45523aebaffa88ffdd6','02a9dfdf6ff42ae9f0524a3d8f4c7777' 
    
#hbase#
QQ扫一扫交流

标题:HBASE原理深入

作者:古道长亭

声明: 欢迎加群交流!

如有帮助,欢迎多多交流 ^_^

微信打赏

支付宝打赏

HBASE应用及优化
HBASE基础
  • 文章目录
  • 站点概览
古道长亭

古道长亭

Always remember that your present situation is not your final destination. The best is yet to come.

226 日志
57 分类
104 标签
GitHub Gitee
友情链接
  • 古道长亭的BOOK
  • JAVA学习
标签云
  • Mysql
  • 搜索引擎
  • Mybatis
  • 容器
  • 架构
  • 消息队列
  • Flink
  • Sharding sphere
  • 流处理
  • 缓存
  • 1. 读数据流程
  • 2. 写数据流程
  • 3. Flush(刷写)与compact(合并)机制
  • 4. Region拆分机制
    • 4.1 拆分策略
    • 4.2 RegionSplitPolicy的应用
  • 5. 预分区
  • 6. Region合并
© 2019 - 2024 京ICP备19012088号-1
0%