hadoop 2.3.0已经发布了,其中最大的亮点就是集中式的缓存管理(hdfs centralized cache management)。这个功能对于提升hadoop系统和上层应用的执行效率与实时性有很大帮助,本文从原理、架构和代码剖析三个角度来探讨这一功能。 主要解决了哪些问题 1.用户可
hadoop 2.3.0已经发布了,其中最大的亮点就是集中式的缓存管理(hdfs centralized cache management)。这个功能对于提升hadoop系统和上层应用的执行效率与实时性有很大帮助,本文从原理、架构和代码剖析三个角度来探讨这一功能。
主要解决了哪些问题1.用户可以根据自己的逻辑指定一些经常被使用的数据或者高优先级任务对应的数据常驻内存而不被淘汰到磁盘。例如在hive或impala构建的数据仓库应用中fact表会频繁地与其他表做join,显然应该让fact常驻内存,这样datanode在内存使用紧张的时候也不会把这些数据淘汰出去,同时也实现了对于?mixed workloads的sla。
2.centralized cache是由namenode统一管理的,那么hdfs client(例如mapreduce、impala)就可以根据block被cache的分布情况去调度任务,做到memory-locality。
3.hdfs原来单纯靠datanode的os buffer cache,这样不但没有把block被cache的分布情况对外暴露给上层应用优化任务调度,也有可能会造成cache浪费。例如一个block的三个replica分别存储在三个datanote 上,有可能这个block同时被这三台datanode的os buffer cache,那么从hdfs的全局看就有同一个block在cache中存了三份,造成了资源浪费。?
4.加快hdfs client读速度。过去namenode处理读请求时只根据拓扑远近决定去哪个datanode读,现在还要加入speed的因素。当hdfs client和要读取的block被cache在同一台datanode的时候,可以通过zero-copy read直接从内存读,略过磁盘i/o、checksum校验等环节。
5.即使数据被cache的datanode节点宕机,block移动,集群重启,cache都不会受到影响。因为cache被namenode统一管理并被被持久化到fsimage和editlog,如果cache的某个block的datanode宕机,namenode会调度其他存储了这个replica的datanode,把它cache到内存。
基本概念cache directive: 表示要被cache到内存的文件或者目录。
cache pool: 用于管理一系列的cache directive,类似于命名空间。同时使用unix风格的文件读、写、执行权限管理机制。命令例子:
hdfs cacheadmin -adddirective -path /user/hive/warehouse/fact.db/city -pool financial -replication 1?
以上代码表示把hdfs上的文件city(其实是hive上的一个fact表)放到hdfs centralized cache的financial这个cache pool下,而且这个文件只需要被缓存一份。
系统架构与原理用户可以通过hdfs cacheadmin命令行或者hdfs api显式指定把hdfs上的某个文件或者目录放到hdfs?centralized?cache中。这个centralized?cache由分布在每个datanode节点的off-heap内存组成,同时被namenode统一管理。每个datanode节点使用mmap/mlock把存储在磁盘文件中的hdfs block映射并锁定到off-heap内存中。
dfsclient读取文件时向namenode发送getblocklocations rpc请求。namenode会返回一个locatedblock列表给dfsclient,这个locatedblock对象里有这个block的replica所在的datanode和cache了这个block的datanode。可以理解为把被cache到内存中的replica当做三副本外的一个高速的replica。
注:centralized cache和distributed cache的区别:
distributed cache将文件分发到各个datanode结点本地磁盘保存,并且用完后并不会被立即清理的,而是由专门的一个线程根据文件大小限制和文件数目上限周期性进行清理。本质上distributed cache只做到了disk locality,而centralized cache做到了memory locality。
实现逻辑与代码剖析hdfs centralized cache涉及到多个操作,其处理逻辑非常类似。为了简化问题,以adddirective这个操作为例说明。
1.namenode处理逻辑
namenode内部主要的组件如图所示。fsnamesystem里有个cachemanager是centralized cache在namenode端的核心组件。我们都知道blockmanager负责管理分布在各个datanode上的block replica,而cachemanager则是负责管理分布在各个datanode上的block cache。
dfsclient给namenode发送名为addcachedirective的rpc, 在clientnamenodeprotocol.proto这个文件中定义相应的接口。
namenode接收到这个rpc之后处理,首先把这个需要被缓存的path包装成cachedirective加入cachemanager所管理的directivesbypath中。这时对应的file/directory并没有被cache到内存。
一旦cachemanager那边添加了新的cachedirective,触发cachereplicationmonitor.rescan()来扫描并把需要通知datanode做cache的block加入到cachereplicationmonitor. cachedblocks映射中。这个rescan操作在namenode启动时也会触发,同时在namenode运行期间以固定的时间间隔触发。
rescan()函数主要逻辑如下:
rescancachedirectives()->rescanfile():依次遍历每个等待被cache的directive(存储在cachemanager. directivesbypath里),把每个等待被cache的directive包含的block都加入到cachereplicationmonitor.cachedblocks集合里面。
rescancachedblockmap():调用cachereplicationmonitor.addnewpendingcached()为每个等待被cache的block选择一个合适的datanode去cache(一般是选择这个block的三个replica所在的datanode其中的剩余可用内存最多的一个),加入对应的datanodedescriptor的pendingcached列表。
2.namenode与datanode的rpc逻辑
datanode定期向namenode发送heartbeat rpc用于表明它还活着,同时datanode还会向namenode定期发送block report(默认6小时)和cache block(默认10秒)用于同步block和cache的状态。
namenode会在每次处理某一datanode的heartbeat rpc时顺便检查该datanode的pendingcached列表是否为空,不为空的话发送datanodeprotocol.dna_cache命令给具体的datanode去cache对应的block replica。
3.datanode处理逻辑
datanode内部主要的组件如图所示。datanode启动的时候只是检查了一下dfs.datanode.max.locked.memory是否超过了os的限制,并没有把留给cache使用的内存空间锁定。
在datanode节点上每个blockpool对应有一个bpserviceactor线程向namenode发送heartbeat、接收response并处理。如果接收到来自namenode的rpc里面的命令是datanodeprotocol.dna_cache,那么调用fsdatasetimpl.cacheblock()把对应的block cache到内存。
这个函数先是通过rpc传过来的blockid找到其对应的fsvolumeimpl (因为执行cache block操作的线程cacheexecutor是绑定在对应的fsvolumeimpl里的);然后调用fsdatasetcache.cacheblock()把这个block封装成mappableblock加入到mappableblockmap里统一管理起来,然后向对应的fsvolumeimpl.cacheexecutor线程池提交一个cachingtask异步任务(cache的过程是异步执行的)。
fsdatasetcache有个成员mappableblockmap(hashmap)管理着这台datanode的所有的mappableblock及其状态(caching/cached/uncaching)。目前datanode中”哪些block被cache到内存里了”也是只保存了soft state(和namenode的block map一样),是datanode向namenode 发送heartbeat之后从namenode那问回来的,没有持久化到datanode本地硬盘。
cachingtask的逻辑: 调用mappableblock.load()方法把对应的block从datanode本地磁盘通过mmap映射到内存中,然后通过mlock锁定这块内存空间,并对这个映射到内存的block做checksum检验其完整性。这样对于memory-locality的dfsclient就可以通过zero-copy直接读内存中的block而不需要校验了。
4.dfsclient读逻辑:
hdfs的读主要有三种: 网络i/o读 -> short circuit read -> zero-copy read。网络i/o读就是传统的hdfs读,通过dfsclient和block所在的datanode建立网络连接传输数据。?
当dfsclient和它要读取的block在同一台datanode时,dfsclient可以跨过网络i/o直接从本地磁盘读取数据,这种读取数据的方式叫short circuit read。目前hdfs实现的short circuit read是通过共享内存获取要读的block在datanode磁盘上文件的file descriptor(因为这样比传递文件目录更安全),然后直接用对应的file descriptor建立起本地磁盘输入流,所以目前的short circuit read也是一种zero-copy read。
增加了centralized cache的hdfs的读接口并没有改变。dfsclient通过rpc获取locatedblock时里面多了个成员表示哪个datanode把这个block cache到内存里面了。如果dfsclient和该block被cache的datanode在一起,就可以通过zero-copy read大大提升读效率。而且即使在读取的过程中该block被uncache了,那么这个读就被退化成了本地磁盘读,一样能够获取数据。?
对上层应用的影响对于hdfs上的某个目录已经被adddirective缓存起来之后,如果这个目录里新加入了文件,那么新加入的文件也会被自动缓存。这一点对于hive/impala式的应用非常有用。
hbase in-memory table:可以直接把某个hbase表的hfile放到centralized cache中,这会显著提高hbase的读性能,降低读请求延迟。
和spark rdd的区别:多个rdd的之间的读写操作可能完全在内存中完成,出错就重算。hdfs centralized cache中被cache的block一定是先写到磁盘上的,然后才能显式被cache到内存。也就是说只能cache读,不能cache写。
目前的centralized cache不是dfsclient读了谁就会把谁cache,而是需要dfsclient显式指定要cache谁,cache多长时间,淘汰谁。目前也没有类似lru的置换策略,如果内存不够用的时候需要client显式去淘汰对应的directive到磁盘。
现在还没有跟yarn整合,需要用户自己调整好留给datanode用于cache的内存和nodemanager的内存使用。
参考文献http://hadoop.apache.org/docs/r2.3.0/hadoop-project-dist/hadoop-hdfs/centralizedcachemanagement.html
https://issues.apache.org/jira/browse/hdfs-4949
原文地址:hdfs集中式的缓存管理原理与代码剖析, 感谢原作者分享。