我的偏见 : 对于互联网公司来说提炼挖掘生产中用户产生的大量日志是个有价值的工作,在这些看似垃圾东西中蕴含着大量的商业机会和用户的需求,如果可以简单的实现当然皆大欢喜,但是面对庞大的输出日志需要去提炼的时候只好束手无则无视他的存在,就拿我们最
我的偏见:
对于互联网公司来说提炼挖掘生产中用户产生的大量日志是个有价值的工作,在这些看似垃圾东西中蕴含着大量的商业机会和用户的需求,如果可以简单的实现当然皆大欢喜,但是面对庞大的输出日志需要去提炼的时候只好束手无则无视他的存在,就拿我们最熟悉的log4j来说,如果是上tb的海量文本类型输出的格式根本无法查询,更谈不上数据挖掘。
当然我们也知道存放在数据库里面当然是不错的选择,对抗海量的日志数据存储与查询坚持做下去的话最后换来的是高昂的代价,hive借助mapreduce的计算+hdfs的海量存储的功能,对与海量的日志存储、查询,数据挖掘hive也是个不错的选择,在功能上和总体成本上高于刚刚所说的前两者。
但是对与存储在其他类型的nosql产品,hive投入正式生产的环境我们还需要进一步的分析与比较,例如:mongodb vs hive,这个2个产品对于海量日志数据挖掘的性能与系统的扩展性来说谁将会比谁更胜一筹喃?因为 mongodb 中也是支持海量级分布式存储,并且mongodb也支持了mapreduce算法,这样我就需要为此得出一个结论,或者说我需要一个折中的方案,但不是现在。
hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的。hive中你添加了数据就无法删除的,sql的fans们是不是很费解?我是这样认为的就拿google的google analytics分析工具为例子,在google analytics分析工具 会有对日志进行删除的操作吗?答案是“no!”,也许在hive设计的时候facebook的工程师就认为对需要进行挖掘的数据删除是一项没有必要的工作,hive在facebook能成功,并且运行在上千台的节点上 或许就是facebook工程师们明确了hive不去做的事情,让hive只做好那一部分事情。
以上是我对 hive why(为什么使用hive)片面的观点。
集群中的hive
hive的失效转发可以设计成这样的,将元数据和存储的数据分别保存在同一个位置,如图所示:
多个hive的物理节点连接到相同的数据库和hdfs环境,防止hive thrift server单点失效(spfo)问题。
将hive的metadata 存储在 mysql中,mysql的运行环境支持双向同步或者集群,这样至少2台数据库服务器上热备份着hive的元数据存储,例如:
javax.jdo.option.connectionurl
jdbc:mysql://192.168.1.203:3306/hive?createdatabaseifnotexist=true
多个物理hive节点的数据内容保存在hdfs上,通过修改 hive-default.xml 配置 文件,指向namenode节点即可,例如:
hive.metastore.warehouse.dir
hdfs://serv1:9000/user/hive/warehouse
/user/hive/warehouse –>
location of default database for the warehouse
hive 与 log4j
在hive中建一张表叫user_log,里面含有4个字段,以\t划分,一行一条数据,建表的脚本如下:
create table user_log(dateinfo string,logname string,loglevel string,msg string)
row format delimited fields terminated by '\t' lines terminated by '\n' stored as textfile;
在log4j的日子输出格式中每个栏目以tab相隔开,中间不是空格而是tab,例如:
log4j.appender.a1.layout.conversionpattern=%d %-6p %l %m %n
输入数据文件格式如下:
在hive的控制台下将log4j输出的日志文件导入hive中,操作结果如下,如图所示:
在建表语句中还可以加入正则表达式,的自定义功能都在contrib里面, 例如:将web日志先用正则表达式进行组合,再按需要的条件进行组合输入到表中
add jar ../build/contrib/hive_contrib.jar;
create table apachelog (
host string,
identity string,
user string,
time string,
request string,
status string,
size string,
referer string,
agent string)
row format serde 'org.apache.hadoop.hive.contrib.serde2.regexserde'
with serdeproperties (
input.regex = ([^ ]*) ([^ ]*) ([^ ]*) (-|\\[[^\\]]*\\]) ([^ \]*|\[^\]*\) (-|[0-9]*) (-|[0-9]*)(?: ([^ \]*|\[^\]*\) ([^ \]*|\[^\]*\))?,
output.format.string = %1$s %2$s %3$s %4$s %5$s %6$s %7$s %8$s %9$s
)stored as textfile;
对于hive的学习方向:
1、hive 的 hive-default.xml 配置文件中的参数细节,主要针对hive的性能优化。
2、hive 是如何使用mapreduce来完成工作的整套机制。
我的口水,目前使用hadoop产品的国内外公司有如下一些:
facebook
处理内部产生的日志和数据挖掘、展示以及机器学习
ibm
用hadoop mapreduce 分析billions of lines of gps data 并产生交通路线资讯.
krugle
用hadoop and nutch 建构原始码搜寻引擎
sedns – security enhanced dns group
收集全世界的dns 以探索网路分散式内容.
technical analysis and stock research
分析股票资讯
university of nebraska lincoln, research computing facility
用hadoop跑约200tb的compact muon solenoid经验分析紧凑渺子线圈,该机构是为瑞士欧洲核子研究组织cern的大型强子对撞器计划的两大通用型粒子侦测器中的一个。
yahoo!
使用hadoop平台来发现发送垃圾邮件的僵尸网络
趋势科技
过滤像是钓鱼网站或恶意连结的网页内容
还有以前提到过的:a9.com、imageshack、last.fm、powerset、纽约时报
在国内使用hadoop的公司有:
淘宝、中国移动研究院、英特尔研究院、金山软件、百度、腾讯、新浪、搜狐。
相关文章:
apache hive入门1
–end–
原文地址:apache hive入门2, 感谢原作者分享。
