3.2 压缩 一般来说,计算机处理的数据都存在一些冗余度,同时数据中间,尤其是相邻数据间存在着相关性,所以可以通过一些有别于原始编码的特殊编码方式来保存数据,使数据占用的存储空间比较小,这个过程一般叫压缩。和压缩对应的概念是解压缩,就是将被压缩
3.2 压缩
一般来说,计算机处理的数据都存在一些冗余度,同时数据中间,尤其是相邻数据间存在着相关性,所以可以通过一些有别于原始编码的特殊编码方式来保存数据,使数据占用的存储空间比较小,这个过程一般叫压缩。和压缩对应的概念是解压缩,就是将被压缩的数据从特殊编码方式还原为原始数据的过程。
压缩广泛应用于海量数据处理中,对数据文件进行压缩,可以有效减少存储文件所需的空间,并加快数据在网络上或者到磁盘上的传输速度。在hadoop中,压缩应用于文件存储、map阶段到reduce阶段的数据交换(需要打开相关的选项)等情景。
数据压缩的方式非常多,不同特点的数据有不同的数据压缩方式:如对声音和图像等特殊数据的压缩,就可以采用有损的压缩方法,允许压缩过程中损失一定的信息,换取比较大的压缩比;而对音乐数据的压缩,由于数据有自己比较特殊的编码方式,因此也可以采用一些针对这些特殊编码的专用数据压缩算法。
3.2.1 hadoop压缩简介
hadoop作为一个较通用的海量数据处理平台,在使用压缩方式方面,主要考虑压缩速度和压缩文件的可分割性。
所有的压缩算法都会考虑时间和空间的权衡,更快的压缩和解压缩速度通常会耗费更多的空间(压缩比较低)。例如,通过gzip命令压缩数据时,用户可以设置不同的选项来选择速度优先或空间优先,选项–1表示优先考虑速度,选项–9表示空间最优,可以获得最大的压缩比。需要注意的是,有些压缩算法的压缩和解压缩速度会有比较大的差别:gzip和zip是通用的压缩工具,在时间/空间处理上相对平衡,gzip2压缩比gzip和zip更有效,但速度较慢,而且bzip2的解压缩速度快于它的压缩速度。
当使用mapreduce处理压缩文件时,需要考虑压缩文件的可分割性。考虑我们需要对保持在hdfs上的一个大小为1gb的文本文件进行处理,当前hdfs的数据块大小为64mb的情况下,该文件被存储为16块,对应的mapreduce作业将会将该文件分为16个输入分片,提供给16个独立的map任务进行处理。但如果该文件是一个gzip格式的压缩文件(大小不变),这时,mapreduce作业不能够将该文件分为16个分片,因为不可能从gzip数据流中的某个点开始,进行数据解压。但是,如果该文件是一个bzip2格式的压缩文件,那么,mapreduce作业可以通过bzip2格式压缩文件中的块,将输入划分为若干输入分片,并从块开始处开始解压缩数据。bzip2格式压缩文件中,块与块间提供了一个48位的同步标记,因此,bzip2支持数据分割。
表3-2列出了一些可以用于hadoop的常见压缩格式以及特性。
表3-2 hadoop支持的压缩格式
为了支持多种压缩解压缩算法,hadoop引入了编码/解码器。与hadoop序列化框架类似,编码/解码器也是使用抽象工厂的设计模式。目前,hadoop支持的编码/解码器如表3-3所示。
表3-3 压缩算法及其编码/解码器
同一个压缩方法对应的压缩、解压缩相关工具,都可以通过相应的编码/解码器获得。
3.2.2 hadoop压缩api应用实例
本节介绍使用编码/解码器的典型实例(代码在org.hadoopinternal.compress包中)。其中,compress()方法接受一个字符串参数,用于指定编码/解码器,并用对应的压缩算法对文本文件readme.txt进行压缩。字符串参数使用java的反射机制创建对应的编码/解码器对象,通过compressioncodec对象,进一步使用它的createoutputstream()方法构造一个compressionoutputstream流,未压缩的数据通过ioutils.copybytes()方法,从输入文件流中复制写入compressionoutputstream流,最终以压缩格式写入底层的输出流中。
在本实例中,底层使用的是文件输出流fileoutputstream,它关联文件的文件名,是在原有文件名的基础上添加压缩算法相应的扩展名生成。该扩展名可以通过compressioncodec对象的getdefaultextension()方法获得。相关代码如下:
public static void compress(string method) throws…… { file filein = new file(readme.txt); //输入流 inputstream in = new fileinputstream(filein); class> codecclass = class.forname(method); configuration conf = new configuration(); //通过名称找对应的编码/解码器 compressioncodec codec = (compressioncodec) reflectionutils.newinstance(codecclass, conf); file fileout = new file(readme.txt+codec.getdefaultextension()); fileout.delete(); //文件输出流 outputstream out = new fileoutputstream(fileout); //通过编码/解码器创建对应的输出流 compressionoutputstream cout = codec.createoutputstream(out); //压缩 ioutils.copybytes(in, cout, 4096, false); in.close(); cout.close(); }
需要解压缩文件时,通常通过其扩展名来推断它对应的编码/解码器,进而用相应的解码流对数据进行解码,如扩展名为gz的文件可以使用gzipcodec阅读。每个压缩格式的扩展名请参考表3-3。
compressioncodecfactory提供了getcodec()方法,用于将文件扩展名映射到对应的编码/解码器,如下面的例子。有了compressioncodec对象,就可以使用和压缩类似的过程,通过对象的createinputstream()方法获得compressioninputstream对象,解码数据。相关代码如下:
public static void decompress(file file) throws ioexception { configuration conf = new configuration(); compressioncodecfactory factory = new compressioncodecfactory(conf); //通过文件扩展名获得相应的编码/解码器 compressioncodec codec = factory.getcodec(new path(file.getname())); if( codec == null ) { system.out.println(cannot find codec for file +file); return; } file fileout = new file(file.getname()+.txt); //通过编码/解码器创建对应的输入流 inputstream in = codec.createinputstream( new fileinputstream(file) ); …… }
3.2.3 hadoop压缩框架(1)
hadoop通过以编码/解码器为基础的抽象工厂方法,提供了一个可扩展的框架,支持多种压缩方法。下面就来研究hadoop压缩框架的实现。
1. 编码/解码器
前面已经提过,compressioncodec接口实现了编码/解码器,使用的是抽象工厂的设计模式。compressioncodec提供了一系列方法,用于创建特定压缩算法的相关设施,其类图如图3-5所示。
compressioncodec中的方法很对称,一个压缩功能总对应着一个解压缩功能。其中,与压缩有关的方法包括:
createoutputstream()用于通过底层输出流创建对应压缩算法的压缩流,重载的createoutputstream()方法可使用压缩器创建压缩流;
createcompressor()方法用于创建压缩算法对应的压缩器。后续会继续介绍压缩流compressionoutputstream和压缩器compressor。解压缩也有对应的方法和类。
compressioncodec中还提供了获取对应文件扩展名的方法getdefaultextension(),如对于org.apache.hadoop.io.compress.bzip2codec,该方法返回字符串“.bz2”,注意字符串的第一个字符。相关代码如下:
public interface compressioncodec { //在底层输出流out的基础上创建对应压缩算法的压缩流compressionoutputstream对象 compressionoutputstream createoutputstream(outputstream out)…… //使用压缩器compressor,在底层输出流out的基础上创建对应的压缩流 compressionoutputstream createoutputstream(outputstream out, compressor compressor) …… …… //创建压缩算法对应的压缩器 compressor createcompressor(); //在底层输入流in的基础上创建对应压缩算法的解压缩流compressioninputstream对象 compressioninputstream createinputstream(inputstream in) …… …… //获得压缩算法对应的文件扩展名 string getdefaultextension(); }
compressioncodecfactory是hadoop压缩框架中的另一个类,它应用了工厂方法,使用者可以通过它提供的方法获得compressioncodec。
注意 抽象工厂方法和工厂方法这两个设计模式有很大的区别,抽象工厂方法用于创建一系列相关或互相依赖的对象,如compressioncodec可以获得和某一个压缩算法相关的对象,包括压缩流和解压缩流等。而工厂方法(严格来说,compressioncodecfactory是参数化工厂方法),用于创建多种产品,如通过compressioncodecfactory的getcodec()方法,可以创建gzipcodec对象或bzip2codec对象。
在前面的实例中已经使用过getcodec()方法,为某一个压缩文件寻找对应的compressioncodec。为了分析该方法,需要了解compressioncodec类中保存文件扩展名和compressioncodec映射关系的成员变量codecs。
3.2.3 hadoop压缩框架(2)
codecs是一个有序映射表,即它本身是一个map,同时它对map的键排序,下面是codecs中保存的一个可能的映射关系:
{ 2zb.: org.apache.hadoop.io.compress.bzip2codec, etalfed.: org.apache.hadoop.io.compress.deflatecodec, yppans.: org.apache.hadoop.io.compress.snappycodec, zg.: org.apache.hadoop.io.compress.gzipcodec }
可以看到,map中的键是排序的。
getcodec()方法的输入是path对象,保存着文件路径,如实例中的“readme.txt.bz2”。
首先通过获取path对象对应的文件名并逆转该字符串得到“2zb.txt.emdaer”,然后通过有序映射sortedmap的headmap()方法,查找最接近上述逆转字符串的有序映射的部分视图,如输入“2zb.txt.emdaer”的查找结果submap,只包含“2zb.”对应的那个键–值对,如果输入是“zg.txt.emdaer”,则submap会包含成员变量codecs中保存的所有键–值对。
然后,简单地获取submap最后一个元素的键,如果该键是逆转文件名的前缀,那么就找到了文件对应的编码/解码器,否则返回空。实现代码如下:
public class compressioncodecfactory { …… //该有序映射保存了逆转文件后缀(包括后缀前的“.”)到compressioncodec的映射 //通过逆转文件后缀,我们可以找到最长匹配后缀 private sortedmapstring, compressioncodec> codecs = null; …… public compressioncodec getcodec(path file) { compressioncodec result = null; if (codecs != null) { string filefilename = file.getname(); //逆转字符串 string reversedfilename = new stringbuffer(filename).reverse().tostring(); sortedmapstring, compressioncodec> submap = codecs.headmap(reversedfilename); if (!submap.isempty()) { string potentialsuffix = submap.lastkey(); if (reversedfilename.startswith(potentialsuffix)) { result = codecs.get(potentialsuffix); } } } return result; } }
compressioncodecfactory.getcodec()方法的代码看似复杂,但通过灵活使用有序映射sortedmap,实现其实还是非常简单的。
2. 压缩器和解压器
压缩器(compressor)和解压器(decompressor)是hadoop压缩框架中的一对重要概念。
compressor可以插入压缩输出流的实现中,提供具体的压缩功能;相反,decompressor提供具体的解压功能并插入compressioninputstream中。compressor和decompressor的这种设计,最初是在java的zlib压缩程序库中引入的,对应的实现分别是java.util.zip.deflater和java.util.zip.inflater。下面以compressor为例介绍这对组件。
compressor的用法相对复杂,请参考org.hadoopinternal.compress.compressdemo的compressor()方法。compressor通过setinput()方法接收数据到内部缓冲区,自然可以多次调用setinput()方法,但内部缓冲区总是会被写满。如何判断压缩器内部缓冲区是否已满呢?可以通过needsinput()的返回值,如果是false,表明缓冲区已经满,这时必须通过compress()方法获取压缩后的数据,释放缓冲区空间。
为了提高压缩效率,并不是每次用户调用setinput()方法,压缩器就会立即工作,所以,为了通知压缩器所有数据已经写入,必须使用finish()方法。finish()调用结束后,压缩器缓冲区中保持的已经压缩的数据,可以继续通过compress()方法获得。至于要判断压缩器中是否还有未读取的压缩数据,则需要利用finished()方法来判断。
注意 finished()和finish()的作用不同,finish()结束数据输入的过程,而finished()返回false,表明压缩器中还有未读取的压缩数据,可以继续通过compress()方法读取。
3.2.3 hadoop压缩框架(3)
使用compressor的一个典型实例如下:
public static void compressor() throws classnotfoundexception, ioexception { //读入被压缩的内容 file filein = new file(readme.txt); inputstream in = new fileinputstream(filein); int datalength=in.available(); byte[] inbuf = new byte[datalength]; in.read(inbuf, 0, datalength); in.close(); //长度受限制的输出缓冲区,用于说明finished()方法 byte[] outbuf = new byte[compressoroutputbuffersize]; compressor compressor=new builtinzlibdeflater();//构造压缩器 int step=100;//一些计数器 int inputpos=0; int putcount=0; int getcount=0; int compressedlen=0; while(inputpos datalength) { //进行多次setinput() int len=(datalength-inputpos>=step)? step:datalength-inputpos; compressor.setinput(inbuf, inputpos, len ); putcount++; while (!compressor.needsinput()) { compressedlen=compressor.compress(outbuf, 0, ……); if(compressedlen>0) { getcount++; //能读到数据 } } // end of while (!compressor.needsinput()) inputpos+=step; } compressor.finish(); while(!compressor.finished()) { //压缩器中有数据 getcount++; compressor.compress(outbuf, 0, compressoroutputbuffersize); } system.out.println(compress +compressor.getbytesread() //输出信息 + bytes into +compressor.getbyteswritten()); system.out.println(put +putcount+ times and get +getcount+ times); compressor.end();//停止 }
以上代码实现了setinput()、needsinput()、finish()、compress()和finished()的配合过程。将输入inbuf分成几个部分,通过setinput()方法送入压缩器,而在finish()调用结束后,通过finished()循序判断压缩器是否还有未读取的数据,并使用compress()方法获取数据。
在压缩的过程中,compressor可以通过getbytesread()和getbyteswritten()方法获得compressor输入未压缩字节的总数和输出压缩字节的总数,如实例中最后一行的输出语句。compressor和decompressor的类图如图3-6所示。
compressor.end()方法用于关闭解压缩器并放弃所有未处理的输入;reset()方法用于重置压缩器,以处理新的输入数据集合;reinit()方法更进一步允许使用hadoop的配置系统,重置并重新配置压缩器。
限于篇幅,这里就不再探讨解压器decompressor了。
3. 压缩流和解压缩流
java最初版本的输入/输出系统是基于流的,流抽象了任何有能力产出数据的数据源,或者是有能力接收数据的接收端。一般来说,通过设计模式装饰,可以为流添加一些额外的功能,如前面提及的序列化流objectinputstream和objectoutputstream。
压缩流(compressionoutputstream)和解压缩流(compressioninputstream)是hadoop压缩框架中的另一对重要概念,它提供了基于流的压缩解压缩能力。如图3-7所示是从java.io.inputstream和java.io.outputstream开始的类图。
这里只分析和压缩相关的代码,即compressionoutputstream及其子类。
outputstream是一个抽象类,提供了进行流输出的基本方法,它包含三个write成员函数,分别用于往流中写入一个字节、一个字节数组或一个字节数组的一部分(需要提供起始偏移量和长度)。
注意 流实现中一般需要支持的close()和flush()方法,是java.io包中的相应接口的成员函数,不是outputstream的成员函数。
3.2.3 hadoop压缩框架(4)
compressionoutputstream继承自outputstream,也是个抽象类。如前面提到的objectoutputstream、compressionoutputstream为其他流添加了附加额外的压缩功能,其他流保存在类的成员变量out中,并在构造的时候被赋值。
compressionoutputstream实现了outputstream的close()方法和flush()方法,但用于输出数据的write()方法、用于结束压缩过程并将输入写到底层流的finish()方法和重置压缩状态的resetstate()方法还是抽象方法,需要compressionoutputstream的子类实现。相关代码如下:
public abstract class compressionoutputstream extends outputstream { //输出压缩结果的流 protected final outputstream out; //构造函数 protected compressionoutputstream(outputstream out) { this.out = out; } public void close() throws ioexception { finish(); out.close(); } public void flush() throws ioexception { out.flush(); } public abstract void write(byte[] b, int off, int len) throws ioexception; public abstract void finish() throws ioexception; public abstract void resetstate() throws ioexception; }
compressionoutputstream规定了压缩流的对外接口,如果已经有了一个压缩器的实现,能否提供一个通用的、使用压缩器的压缩流实现呢?答案是肯定的,compressorstream使用压缩器实现了一个通用的压缩流,其主要代码如下:
public class compressorstream extends compressionoutputstream { protected compressor compressor; protected byte[] buffer; protected boolean closed = false; //构造函数 public compressorstream(outputstream out, compressor compressor, int buffersize) { super(out); ……//参数检查,略 this.compressor = compressor; buffer = new byte[buffersize]; } …… public void write(byte[] b, int off, int len) throws ioexception { //参数检查,略 …… compressor.setinput(b, off, len); while (!compressor.needsinput()) { compress(); } } protected void compress() throws ioexception { int len = compressor.compress(buffer, 0, buffer.length); if (len > 0) { out.write(buffer, 0, len); } } //结束输入 public void finish() throws ioexception { if (!compressor.finished()) { compressor.finish(); while (!compressor.finished()) { compress(); } } } …… //关闭流 public void close() throws ioexception { if (!closed) { finish();//结束压缩 out.close();//关闭底层流 closed = true; } } …… }
compressorstream提供了几个不同的构造函数,用于初始化相关的成员变量。上述代码片段中保留了参数最多的构造函数,其中,compressorstream需要的底层输出流out和压缩时使用的压缩器,都作为参数传入构造函数。另一个参数是compressorstream工作时使用的缓冲区buffer的大小,构造时会利用这个参数分配该缓冲区。
compressorstream.write()方法用于将待压缩的数据写入流中。待压缩的数据在进行一番检查后,最终调用压缩器的setinput()方法进入压缩器。setinput()方法调用结束后,通过compressor.needsinput()判断是否需要调用compress()方法,获取压缩后的输出数据。上一节已经讨论了这个问题,如果内部缓冲区已满,则需要通过compress()方法提取数据,提取后的数据直接通过底层流的write()方法输出。
当finish()被调用(往往是compressorstream被关闭),这时compressorstream流调用压缩器的finish()方法通知输入已经结束,然后进入另一个循环,该循环不断读取压缩器中未读取的数据,然后输出到底层流out中。
compressorstream中的其他方法,如resetstate()和close()都比较简单,不再一一介绍了。
compressorstream利用压缩器compressor实现了一个通用的压缩流,在hadoop中引入一个新的压缩算法,如果没有特殊的考虑,一般只需要实现相关的压缩器和解压器,然后通过compressorstream和decompressorstream,就实现相关压缩算法的输入/输出流了。
compressorstream的实现并不复杂,只需要注意压缩器几个方法间的配合,图3-8给出了这些方法的一个典型调用顺序,供读者参考。
3.2.4 java本地方法(1)
数据压缩往往是计算密集型的操作,考虑到性能,建议使用本地库(native library)来压缩和解压。在某个测试中,与java实现的内置gzip压缩相比,使用本地gzip压缩库可以将解压时间减少50%,而压缩时间大概减少10%。
hadoop的deflate、gzip和snappy都支持算法的本地实现,其中apache发行版中还包含了deflate和gzip的32位和64位linux本地压缩库(cloudera发行版还包括snappy压缩方法)。默认情况下,hadoop会在它运行的平台上查找本地库。
假设有一个c函数,它实现了某些功能,同时因为某种原因(如效率),使得用户不希望用java语言重新实现该功能,那么java本地方法(native method)就是一个不错的选择。java提供了一些钩子函数,使得调用本地方法成为可能,同时,jdk也提供了一些工具,协助用户减轻编程负担。不熟悉c语言的读者可以略过本部分的内容。
java语言中的关键字native用于表示某个方法为本地方法,显然,本地方法是类的成员方法。下面是一个本地方法的例子,代码片段来自cloudera的snappy压缩实现,在org.apache.hadoop.io.compress.snappy包中。其中,静态方法initids()和方法compressbytesdirect()用关键字native修饰,表明这是一个java本地方法。相关代码如下:
public class snappycompressor implements compressor { …… private native static void initids(); private native int compressbytesdirect(); }
实际上,如果什么都不做也可以编译这个类,但是当使用这个类的时候,java虚拟机会告诉你无法找到上述两个方法。要想实现这两个本地方法,一般需要如下三个步骤:
1)为方法生成一个在java调用和实际c函数间转换的c存根;
2)建立一个共享库并导出该存根;
3)使用system.loadlibrary()方法通知java运行环境加载共享库。
jdk为c存根的生成提供了实用程序javah,以上面snappycompressor为例,可以在build/classes目录下执行如下命令:
javah org.apache.hadoop.io.compress.snappy.snappycompressor
系统会生成一个头文件org_apache_hadoop_io_compress_snappy_snappycompressor.h。该文件包含上述两个本地方法相应的声明:
java_org_apache_hadoop_io_compress_snappy_snappycompressor_initids(下面以java_…_initids代替)
java_org_apache_hadoop_io_compress_snappy_snappycompressor_compressbytesdirect(下面以java_…_ compressbytesdirect代替)
这两个声明遵从了java本地方法的命名规则,以java起首,然后是类的名称,最后是本地方法的方法名。声明中的jniexport和jnicall表明了这两个方法会被jni调用。
上述第一个声明对应方法java_…_initids,由于是一个静态方法,它的参数包括类型为jnienv的指针,用于和jvm通信。jnienv提供了大量的函数,可以执行类和对象的相关方法,也可以访问对象的成员变量或类的静态变量(对于java_…_initids,只能访问类的静态变量)。参数jclass提供了引用静态方法对应类的机制,而java_…_compressbytesdirect中的jobject,则可以理解为this引用。这两个参数大量应用于jni提供的c api中。
头文件org_apache_hadoop_io_compress_snappy_snappycompressor.h代码如下:
/* do not edit this file - it is machine generated */ #includejni.h> /* header for class org_apache_hadoop_io_compress_snappy_snappycompressor */ #ifndef _included_org_apache_hadoop_io_compress_snappy_snappycompressor #define _included_org_apache_hadoop_io_compress_snappy_snappycompressor #ifdef __cplusplus extern c { #endif #undef org_apache_hadoop_io_compress_snappy_snappycompressor_default_direct_buffer_size #define org_apache_hadoop_io_compress_snappy_snappycompressor_default_direct_buffer_size 65536l /* * class: org_apache_hadoop_io_compress_snappy_snappycompressor * method: initids * signature: ()v */ jniexport void jnicall java_org_apache_hadoop_io_compress_snappy_snappycompressor_initids (jnienv *, jclass); /* * class: org_apache_hadoop_io_compress_snappy_snappycompressor * method: compressbytesdirect * signature: ()i */ jniexport jint jnicall java_org_apache_hadoop_io_compress_snappy_snappycompressor_compressbytesdirect (jnienv *, jobject); #ifdef __cplusplus } #endif #endif
3.2.4 java本地方法(2)
有了上述头文件,就可以实现java_…_initids和java_…_ compressbytesdirect方法,它们的实现在目录src/native/src/org/apache/hadoop/io/compress/snappy下,压缩部分对应的c源代码是snappycompressor.c,在这里只介绍java_…_compressbytesdirect的实现,代码如下:
…… static jfieldid snappycompressor_clazz; …… static jfieldid snappycompressor_directbuffersize; …… static snappy_status (*dlsym_snappy_compress)(constchar*, size_t, char*, size_t*); …… jniexport jint jnicall java_org_apache_hadoop_io_compress_snappy_snappycompressor_compressbytesdirect(jnienv *env, jobject thisj) { // 获得snappycompressor的相关成员变量 jobject clazz = (*env)->getstaticobjectfield (env, thisj, snappycompressor_clazz); jobject uncompressed_direct_buf = (*env)->getobjectfield (env, thisj, snappycompressor_uncompresseddirectbuf); jint uncompressed_direct_buf_len = (*env)->getintfield (env, thisj, snappycompressor_uncompresseddirectbuflen); jobject compressed_direct_buf = (*env)->getobjectfield (env, thisj, snappycompressor_compresseddirectbuf); jint compressed_direct_buf_len = (*env)->getintfield (env, thisj, snappycompressor_directbuffersize); // 获得未压缩数据缓冲区 lock_class(env, clazz, snappycompressor); const char* uncompressed_bytes = (const char*) (*env)->getdirectbufferaddress(env, uncompressed_direct_buf); unlock_class(env, clazz, snappycompressor); if (uncompressed_bytes == 0) { return (jint)0; } // 获得保存压缩结果的缓冲区 …… // 进行数据压缩 snappy_status ret = dlsym_snappy_compress(uncompressed_bytes, uncompressed_direct_buf_len, compressed_bytes, &compressed_direct_buf_len); // 处理返回结果 if (ret != snappy_ok){ throw(env, ljava/lang/internalerror, could not compress data. buffer length is too small.); } (*env)->setintfield (env, thisj, snappycompressor_uncompresseddirectbuflen, 0); return (jint)compressed_direct_buf_len; }
在介绍java_…_ compressbytesdirect的实现前,先来研究几个jni c提供的方法。
jnienv提供了c代码和java虚拟机通信的环境,java_…_compressbytesdirect方法执行过程中需要获得snappycompressor类中的一些成员变量,就需要使用jnienv提供的方法。
getobjectfield()函数可用于获得对象的一个域,在上述代码中,使用该方法获得了保存待压缩数据缓冲区和压缩数据写入的缓冲区的成员变量,即snappycompressor的成员变量uncompresseddirectbuf和compresseddirectbuf,接着使用jnienv的getdirectbufferaddress()方法获得缓冲区的地址,这样,就可以直接访问数据缓冲区中的数据了。
jnienv还提供getintfield()函数,可用于得到java对象的整型成员变量,而setintfield()函数则相反,它设置java对象的整型成员变量的值。
了解了这些jni方法以后,java_…_compressbytesdirect的实现就非常好理解了,它将未压缩的数据进行压缩,首先当然是获得相应的缓冲区了,通过getobjectfield()和getintfield()获取输入缓冲区及其大小、输出缓冲区及其大小后,就可以调用snappy本地库提供的压缩方法。
3.2.4 java本地方法(3)
调用snappy压缩算法是通过函数指针dlsym_snappy_compress进行的,该指针在java_…_initids中初始化,对应的是snappy库libsnappy中的snappy_compress()方法。相关代码如下:
jniexport void jnicall java_org_apache_hadoop_io_compress_snappy_snappycompressor_initids (jnienv *env, jclass clazz){ …… load_dynamic_symbol(dlsym_snappy_compress, env, libsnappy, snappy_compress); …… }
snappy_compress()方法是google提供的snappy压缩库中的方法,它需要输入缓冲区及其大小,输出缓冲区及其大小4个参数。注意,输出缓冲区大小参数是一个指针,压缩结果的大小通过该指针指向的整数返回,即它既充当输入值,也是返回值。相关代码如下:
snappy_status snappy_compress(const char* input, size_t input_length, char* compressed, size_t* compressed_length);
java_…_ compressbytesdirect中对snappy_compress()的调用结束后,还需要进行返回值检查,如果该值不为0,则通过throw()抛出异常,否则返回压缩后数据的长度。
实现了snappycompressor.c以后,作为本地方法开发的后续步骤,还需要使用c的编译器、链接器编译相关的文件并连接成动态库(cloudera发行版中,snappycompressor.c和其他本地库打包成libhadoop.so,当然,运行时还需要将snappy的动态库加载进来)。在运行时,需要将包含该动态库的路径放入系统属性java.library.path中,这样,java虚拟机才能找到对应的动态库。最后,java应用需要显式通知java运行环境加载相关的动态库(如加载snappy的动态库),可用如下代码(细节请参考类loadsnappy的实现):
public class loadsnappy { try { system.loadlibrary(snappy); log.warn(snappy native library is available); available = true; } catch (unsatisfiedlinkerror ex) { //nop } ……
system.loadlibrary()方法会用在java.library.path指定的路径下,寻找并加载附加的动态库,如上述调用,可以加载snappy压缩需要的libsnappy.so库。
3.2.5 支持snappy压缩(1)
snappy的前身是zippy,虽然只是一个数据压缩库,却被google用于许多内部项目,如bigtable、mapreduce等。google表示该算法库针对性能做了调整,针对64位x86处理器进行了优化,并在英特尔酷睿i7处理器单一核心上实现了至少每秒250mb的压缩性能和每秒500mb的解压缩性能。snappy在google的生产环境中经过了pb级数据压缩的考验,并使用new bsd协议开源。
本节不介绍snappy压缩算法是如何实现的,而是在前面已有的基础上,介绍如何在hadoop提供的压缩框架下集成新的压缩算法。本节只介绍和压缩相关的实现,将涉及cloudera发行版的org.apache.hadoop.io.compress.snappy包下的代码和org.apache.hadoop.io.compress.snappycodec类。
org.apache.hadoop.io.compress.snappy包括支持snappy的压缩器snappycompressor和解压器snappydecompressor。loadsnappy类用于判断snappy的本地库是否可用,如果可用,则通过system.loadlibrary()加载本地库(上一节分析过这部分代码)。
snappycompressor实现了compressor接口,是这一节的重点。前面提过,压缩器的一般用法是循环调用setinput()、finish()和compress()三个方法对数据进行压缩。在分析这些方法前,了解snappycompressor的主要成员变量,如下所示:
public class snappycompressor implements compressor { …… private int directbuffersize; private buffer compresseddirectbuf = null; //输出(压缩)数据缓冲区 private int uncompresseddirectbuflen; private buffer uncompresseddirectbuf = null; //输入数据缓冲区 private byte[] userbuf = null; private int userbufoff = 0, userbuflen = 0; private boolean finish, finished; private long bytesread = 0l; //计数器,供getbytesread()使用 private long byteswritten = 0l; //计数器,供getbyteswritten()使用 …… }
snappycompressor的主要属性有compresseddirectbuf和uncompresseddirectbuf,分别用于保存压缩前后的数据,类型都是buffer。缓冲区buffer代表一个有限容量的容器,是java nio(新输入/输出系统)中的重要概念,和基于流的java io不同,缓冲区可以用于输入,也可以用于输出。为了支持这些特性,缓冲区会维持一些标记,记录目前缓冲区中的数据存放情况(第4章详细介绍buffer,读者可以参考java nio的内容)。
成员变量userbuf、userbufoff和userbuflen用于保存通过setinput()设置的,但超过压缩器工作空间uncompresseddirectbuf剩余可用空间的数据。后面在分析setinput()方法的时候,可以看到这三个变量是如何使用的。
在分析压缩器/解压器和压缩流/解压缩流时,一直强调compressor的setinput()、needsinput()、finish()、finished()和compress() 5个方法间的配合,那么为什么需要这样的配合呢?让我们先从setinput()开始了解这些方法的实现。
1. setinput()
setinput()方法为压缩器提供数据,在做了一番输入数据的合法性检查后,先将finished标志位置为false,并尝试将输入数据复制到内部缓冲区中。如果内部缓存器剩余空间不够大,那么,压缩器将“借用”输入数据对应的缓冲区,即利用userbuf、userbufoff和userbuflen记录输入的数据。否则,setinput()复制数据到uncompresseddirectbuf中。
需要注意的是,当“借用”发生时,使用的是引用,即数据并没有发生实际的复制,用户不能随便修改传入的数据。同时,缓冲区只能借用一次,用户如果再次调用setinput(),将会替换原来保存的相关信息,造成数据错误。相关代码如下:
public synchronized void setinput(byte[] b, int off, int len) { …… finished = false; if (len > uncompresseddirectbuf.remaining()) { //借用外部缓冲区,这个时候needsinput为false this.userbuf = b; this.userbufoff = off; this.userbuflen = len; } else { ((bytebuffer) uncompresseddirectbuf).put(b, off, len); uncompresseddirectbufuncompresseddirectbuflen = uncompresseddirectbuf.position(); } bytesread += len; }
setinput()借用外部缓冲区后就不能再接收数据,这时,用户调用needsinput()将返回false,就可以获知这个信息。
3.2.5 支持snappy压缩(2)
2. needsinput()
needsinput()方法返回false有三种情况:输出缓冲区(即保持压缩结果的缓冲区)有未读取的数据、输入缓冲区没有空间,以及压缩器已经借用外部缓冲区。这时,用户需要通过compress()方法取走已经压缩的数据,直到needsinput()返回true,才可再次通过setinput()方法添加待压缩数据。相关代码如下:
public synchronized boolean needsinput() { return !(compresseddirectbuf.remaining() > 0 || uncompresseddirectbuf.remaining() == 0 || userbuflen > 0); }
3. compress()
compress()方法用于获取压缩后的数据,它需要处理needsinput()返回false的几种情况。
如果压缩数据缓冲区有数据,即compresseddirectbuf中还有数据,则读取这部分数据,并返回。
如果该缓冲区为空,则需要压缩数据。首先清理compresseddirectbuf,这个清理(即clear()调用和limit()调用)是一个典型的buffer操作,具体函数的意义在第4章会讲。待压缩的数据有两个来源,输入缓冲区uncompresseddirectbuf或者“借用”的数据缓冲区。
如果输入缓冲区没有数据,那待压缩数据可能(可以在没有任何带压缩数据的情况下调用compress()方法)在“借用”的数据缓冲区里,这时使用setinputfromsaveddata()方法复制“借用”数据缓冲区中的数据到uncompresseddirectbuf中。setinputfromsaveddata()函数调用结束后,待压缩数据缓冲区里还没有数据,则设置finished标记位,并返回0,表明压缩数据已经读完。
uncompresseddirectbuf中的数据,利用前面已经介绍过的native方法compressbytesdirect()进行压缩,压缩后的数据保存在compresseddirectbuf中。由于待压缩数据缓冲区和压缩数据缓冲区的大小是一样的,所以uncompresseddirectbuf中的数据是一次被处理完的。compressbytesdirect()调用结束后,需要再次设置缓冲区的标记,并根据情况复制数据到compress()的参数b提供的缓冲区中。相关代码如下:
public synchronized int compress(byte[] b, int off, int len) …… //是否还有未取走的已经压缩的数据 int n = compresseddirectbuf.remaining(); if (n > 0) { n = math.min(n, len); ((bytebuffer) compresseddirectbuf).get(b, off, n); byteswritten += n; return n; } //清理压缩数据缓冲区 compresseddirectbuf.clear(); compresseddirectbuf.limit(0); if (0 == uncompresseddirectbuf.position()) { //输入数据缓冲区没有数据 setinputfromsaveddata(); if (0 == uncompresseddirectbuf.position()) { //真的没数据,设置标记位,并返回 finished = true; return 0; } } //压缩数据 n = compressbytesdirect(); compresseddirectbuf.limit(n); uncompresseddirectbuf.clear(); //本地方法以及处理完