该类实现的功能是将文件中的内容按行切分程两部分,分别插入列名为column1和column2的两列中,rowkey为当前时间。完成后将flume-
这篇介绍过flume数据插入hdfs和普通目录(),本文继续介绍flume-ng将数据插入hbase-0.96.0.
首先,修改node中flume文件夹下conf目录中的flume-node.conf文件(原配置参考上文),,对其做如下修改:
agent.sinks = k1agent.sinks.k1.type = hbaseagent.sinks.k1.table = helloagent.sinks.k1.columnfamily = cfagent.sinks.k1.column = col1agent.sinks.k1.serializer = org.apache.flume.sink.hbase.simplehbaseeventserializeragent.sinks.k1.channel = memorychannel
不过和上文不同的是,这次要想得到成功结果就没那么简单了,由于依赖的版本问题。此处需要将flume的lib文件夹下的protobuf用hadoop-2.2.0中的2.5.0版本替换,还需要用hadoop-2.2.0中的guava替换flume的lib文件夹下的guava,删除原来相应的jar文件。启动即可生效。
flume-ng里面的simplehbaseeventserializer只提供了最简单的数据插入hbase功能,如果还有其他需要,就得自己写hbaseeventserializer类,在apache-flume-1.4.0-src/flume-ng-sinks/flume-ng-hbase-sink/src/main/java中定义自己的类,实现flume中的hbaseeventserializer接口。一个简单的实例如下:
public class myhbaseserializer implements hbaseeventserializer {private static final string[] columns = column1,column2.split(,);private static final string[] params = col1,col2.split(,);private byte[] columnfamily = cf.getbytes();private byte[] content;@overridepublic void configure(context context) {}@overridepublic void configure(componentconfiguration conf) {}@overridepublic void initialize(event event, byte[] columnfamily) {this.content = event.getbody();this.columnfamily = columnfamily;}@overridepublic list getactions() {string string = bytes.tostring(content);string value1 = string.substring(0,string.length()/2);string value2 = string.substring(string.length()/2, string.length());map map = maps.newhashmap();map.put(params[0], value1);map.put(params[1], value2);list actions = new linkedlist();string rowkey = string.valueof(system.currenttimemillis());put put = new put(bytes.tobytes(rowkey));for (int i = 0; i getincrements() {list incs = new linkedlist();return incs;}@overridepublic void close() {}}该类实现的功能是将文件中的内容按行切分程两部分,分别插入列名为column1和column2的两列中,rowkey为当前时间。完成后将flume-ng代码重新编译打包。然后将flume-ng目录里面的lib文件夹的相应的jar文件替换。然后将上文中的agent.sinks.k1.serializer 值改为test..myhbaseserializer即可。其中test为包名。
hbase 的详细介绍:请点这里
hbase 的下载地址:请点这里
相关阅读:
hadoop+hbase搭建云存储总结 pdf
hbase 结点之间时间不一致造成regionserver启动失败
hadoop+zookeeper+hbase集群配置
hadoop集群安装&hbase实验环境搭建
基于hadoop集群的hbase集群的配置 ‘
hadoop安装部署笔记之-hbase完全分布模式安装
单机版搭建hbase环境图文教程详解