Spark Streaming--应用与实战(五)

  前期的一系列 Spark Streaming相关博客 其实还没写完,对于宜人贷蜂巢这样一个多维度的实时数据抓取服务来讲,对性能的要求极高,需要更多的压测与性能检测。 还有一些优化和监控,一直没更新主要是因为还不够完善,但是最近也没时间来弄了。虽然不完善但是还是可以写写已经完成的,因为也有不少网友通过微信和邮件联系到了我,也讨论了一些问题,后续再继续跟进吧。

Streaming 持续优化之HBase

设置WALog

put.setDurability(Durability.SKIP_WAL)/* 跳过写WALog /

  • 关闭WALog后写入能到20万,但是发现还是不是特别稳定,有时耗时还是比较长的,发现此阶段正在做Compaction!!!
    查看streaming统计,发现耗时不稳定
    HBase界面统计信息

  • HBase是一种Log-Structured Merge Tree架构模式,用户数据写入先写WAL,再写缓存,满足一定条件后缓存数据会执行flush操作真正落盘,形成一个数据文件HFile。随着数据写入不断增多,flush次数也会不断增多,进而HFile数据文件就会越来越多。然而,太多数据文件会导致数据查询IO次数增多,因此HBase尝试着不断对这些文件进行合并,这个合并过程称为Compaction

  • Compaction会从一个region的一个store中选择一些hfile文件进行合并。合并说来原理很简单,先从这些待合并的数据文件中读出KeyValues,再按照由小到大排列后写入一个新的文件中。之后,这个新生成的文件就会取代之前待合并的所有文件对外提供服务
    HBase根据合并规模将Compaction分为了两类:MinorCompaction和MajorCompaction

    Minor Compaction是指选取一些小的、相邻的StoreFile将他们合并成一个更大的StoreFile,在这个过程中不会处理已经Deleted或Expired的Cell。一次Minor Compaction的结果是更少并且更大的StoreFile。
    Major Compaction是指将所有的StoreFile合并成一个StoreFile,这个过程还会清理三类无意义数据:被删除的数据、TTL过期数据、版本号超过设定版本号的数据。另外,一般情况下,Major Compaction时间会持续比较长,整个过程会消耗大量系统资源,对上层业务有比较大的影响。因此线上业务都会将关闭自动触发Major Compaction功能,改为手动在业务低峰期触发。
    更多Compaction信息参考:http://hbasefly.com/2016/07/13/hbase-compaction-1/

调整压缩

  • 通常生产环境会关闭自动major_compact(配置文件中hbase.hregion.majorcompaction设 为0),选择一个晚上用户少的时间窗口手工major_compact

    手动:major_compact ‘testtable’
    如果hbase更新不是太频繁,可以一个星期对所有表做一次 major_compact,这个可以在做完一次major_compact后,观看所有的storefile数量,如果storefile数量增加到 major_compact后的storefile的近二倍时,可以对所有表做一次major_compact,时间比较长,操作尽量避免高锋期。
    查看统计信息

  • Compact触发条件

  1. memstore flush之后触发
  2. 客户端通过shell或者API触发
  3. 后台线程CompactionChecker定期触发
    查看统计信息
    查看统计信息

    周期为Hbase.server.thread.wakefrequencyhbase.server.compactchecker.interval.multiplier触发compaction,后面还有一些其他的条件也可以在源码里面看看
    条件的验证逻辑就是在这个时间范围:mcTime= 7-70.5天,7+70.5天=3.5-10.5;
    *是否有文件修改具体逻辑可见RatioBasedCompactionPolicy#isMajorCompaction方法
    http://blog.csdn.net/c77_cn/article/details/38820379

Split

  • 通过上面的截图我们可以看到,该表只有一个region,写入数据都集中到了一台服务器,这个远远没有发挥出HBase集群的能力呀,手动拆分吧!
    通过hbase ui界面拆分Region

  • 拆分后
    Region拆分后

待续

当前网速较慢或者你使用的浏览器不支持博客特定功能,请尝试刷新或换用Chrome、Firefox等现代浏览器