一、前言得益于doug lea老爷子的操刀,让hashmap成为使用和面试最频繁的api,没办法设计的太优秀了!
hashmap 最早出现在 jdk 1.2中,底层基于散列算法实现。hashmap 允许 null 键和 null 值,在计算哈键的哈希值时,null 键哈希值为 0。hashmap 并不保证键值对的顺序,这意味着在进行某些操作后,键值对的顺序可能会发生变化。另外,需要注意的是,hashmap 是非线程安全类,在多线程环境下可能会存在问题。
hashmap 最早在jdk 1.2中就出现了,底层是基于散列算法实现,随着几代的优化更新到目前为止它的源码部分已经比较复杂,涉及的知识点也非常多,在jdk 1.8中包括;1、散列表实现、2、扰动函数、3、初始化容量、4、负载因子、5、扩容元素拆分、6、链表树化、7、红黑树、8、插入、9、查找、10、删除、11、遍历、12、分段锁等等,因涉及的知识点较多所以需要分开讲解,本章节我们会先把目光放在前五项上,也就是关于数据结构的使用上。
数据结构相关往往与数学离不开,学习过程中建议下载相应源码进行实验验证,可能这个过程有点烧脑,但学会后不用死记硬背就可以理解这部分知识。
二、资源下载本章节涉及的源码和资源在工程,interview-04中,包括;
10万单词测试数据,在doc文件夹
扰动函数excel展现,在doc文件夹
测试源码部分在interview-04工程中
可以通过关注公众号:bugstack虫洞栈,回复下载进行获取{回复下载后打开获得的链接,找到编号id:19}
三、源码分析1. 写一个最简单的hashmap学习hashmap前,最好的方式是先了解这是一种怎么样的数据结构来存放数据。而hashmap经过多个版本的迭代后,乍一看代码还是很复杂的。就像你原来只穿个裤衩,现在还有秋裤和风衣。所以我们先来看看最根本的hashmap是什么样,也就是只穿裤衩是什么效果,之后再去分析它的源码。
问题: 假设我们有一组7个字符串,需要存放到数组中,但要求在获取每个元素的时候时间复杂度是o(1)。也就是说你不能通过循环遍历的方式进行获取,而是要定位到数组id直接获取相应的元素。
方案: 如果说我们需要通过id从数组中获取元素,那么就需要把每个字符串都计算出一个在数组中的位置id。字符串获取id你能想到什么方式? 一个字符串最直接的获取跟数字相关的信息就是hashcode,可hashcode的取值范围太大了[-2147483648, 2147483647],不可能直接使用。那么就需要使用hashcode与数组长度做与运算,得到一个可以在数组中出现的位置。如果说有两个元素得到同样的id,那么这个数组id下就存放两个字符串。
以上呢其实就是我们要把字符串散列到数组中的一个基本思路,接下来我们就把这个思路用代码实现出来。
1.1 代码实现// 初始化一组字符串
list list = new arraylist();
list.add(jlkk);
list.add(lopi);
list.add(小傅哥);
list.add(e4we);
list.add(alpo);
list.add(yhjk);
list.add(plop);
// 定义要存放的数组
string[] tab = new string[8];
// 循环存放
for (string key : list) {
int idx = key.hashcode() & (tab.length - 1);// 计算索引位置
system.out.println(string.format(key值=%s idx=%d, key, idx));
if (null == tab[idx]) {
tab[idx] = key;
continue;
}
tab[idx] = tab[idx] + -> + key;
}
// 输出测试结果
system.out.println(json.tojsonstring(tab));
这段代码整体看起来也是非常简单,并没有什么复杂度,主要包括以下内容;
初始化一组字符串集合,这里初始化了7个。定义一个数组用于存放字符串,注意这里的长度是8,也就是2的3次幂。这样的数组长度才会出现一个 0111除高位以外都是1的特征,也是为了散列。接下来就是循环存放数据,计算出每个字符串在数组中的位置。key.hashcode() & (tab.length - 1)。在字符串存放到数组的过程,如果遇到相同的元素,进行连接操作模拟链表的过程。最后输出存放结果。测试结果
key值=jlkk idx=2
key值=lopi idx=4
key值=小傅哥 idx=7
key值=e4we idx=5
key值=alpo idx=2
key值=yhjk idx=0
key值=plop idx=5
测试结果:[yhjk,null,jlkk->alpo,null,lopi,e4we->plop,null,小傅哥]
在测试结果首先是计算出每个元素在数组的idx,也有出现重复的位置。最后是测试结果的输出,1、3、6,位置是空的,2、5,位置有两个元素被链接起来e4we->plop。这就达到了我们一个最基本的要求,将串元素散列存放到数组中,最后通过字符串元素的索引id进行获取对应字符串。这样是hashmap的一个最基本原理,有了这个基础后面就会更容易理解hashmap的源码实现。1.2 hash散列示意图如果上面的测试结果不能在你的头脑中很好地建立出一个数据结构,那么可以看以下这张散列示意图,方便理解;
bugstack.cn hash散列示意图
这张图就是上面代码实现的全过程,将每一个字符串元素通过hash计算索引位置,存放到数组中。黄色的索引id是没有元素存放、绿色的索引id存放了一个元素、红色的索引id存放了两个元素。1.3 这个简单的hashmap有哪些问题以上我们实现了一个简单的hashmap,或者说还算不上hashmap,只能算做一个散列数据存放的雏形。但这样的一个数据结构放在实际使用中,会有哪些问题呢?
这里所有的元素存放都需要获取一个索引位置,而如果元素的位置不够散列碰撞严重,那么就失去了散列表存放的意义,没有达到预期的性能。在获取索引id的计算公式中,需要数组长度是2的幂次方,那么怎么进行初始化这个数组大小。数组越小碰撞的越大,数组越大碰撞的越小,时间与空间如何取舍。目前存放7个元素,已经有两个位置都存放了2个字符串,那么链表越来越长怎么优化。随着元素的不断添加,数组长度不足扩容时,怎么把原有的元素,拆分到新的位置上去。以上这些问题可以归纳为;扰动函数、初始化容量、负载因子、扩容方法以及链表和红黑树转换的使用等。接下来我们会逐个问题进行分析。
2. 扰动函数在hashmap存放元素时候有这样一段代码来处理哈希值,这是java 8的散列值扰动函数,用于优化散列效果;
static final int hash(object key){
int h;
return (key == null) ? 0 : (h = key.hashcode()) ^ (h >>> 16);
}
2.1 为什么使用扰动函数理论上来说字符串的hashcode是一个int类型值,那可以直接作为数组下标了,且不会出现碰撞。但是这个hashcode的取值范围是[-2147483648, 2147483647],有将近40亿的长度,谁也不能把数组初始化得这么大,内存也是放不下的。
我们默认初始化的map大小是16个长度 default_initial_capacity = 1 > 16)。把哈希值右移16位,也就正好是自己长度的一半,之后与原哈希值做异或运算,这样就混合了原哈希值中的高位和低位,增大了随机性。计算方式如下图;
bugstack.cn 扰动函数
说白了,使用扰动函数就是为了增加随机性,让数据元素更加均衡的散列,减少碰撞。2.2 实验验证扰动函数从上面的分析可以看出,扰动函数使用了哈希值的高半区和低半区做异或,混合原始哈希码的高位和低位,以此来加大低位区的随机性。
但看不到实验数据的话,这终究是一段理论,具体这段哈希值真的被增加了随机性没有,并不知道。所以这里我们要做一个实验,这个实验是这样做;
选取10万个单词词库定义128位长度的数组格子分别计算在扰动和不扰动下,10万单词的下标分配到128个格子的数量统计各个格子数量,生成波动曲线。如果扰动函数下的波动曲线相对更平稳,那么证明扰动函数有效果。2.2.1 扰动代码测试扰动函数对比方法
public class disturb {
public static int disturbhashidx(string key, int size){
return (size - 1) & (key.hashcode() ^ (key.hashcode() >>> 16));
}
public static int hashidx(string key, int size){
return (size - 1) & key.hashcode();
}
}
disturbhashidx扰动函数下,下标值计算hashidx非扰动函数下,下标值计算单元测试
// 10万单词已经初始化到words中
@test
public void test_disturb(){
map map = new hashmap(16);
for (string word : words) {
// 使用扰动函数
int idx = disturb.disturbhashidx(word, 128);
// 不使用扰动函数
// int idx = disturb.hashidx(word, 128);
if (map.containskey(idx)) {
integer integer = map.get(idx);
map.put(idx, ++integer);
} else {
map.put(idx, 1);
}
}
system.out.println(map.values());
}
以上分别统计两种函数下的下标值分配,最终将统计结果放到excel中生成图表。
2.2.2 扰动函数散列图表以上的两张图,分别是没有使用扰动函数和使用扰动函数的,下标分配。实验数据;
10万个不重复的单词128个格子,相当于128长度的数组未使用扰动函数
bugstack.cn 未使用扰动函数
使用扰动函数
bugstack.cn 使用扰动函数
从这两种的对比图可以看出来,在使用了扰动函数后,数据分配的更加均匀了。数据分配均匀,也就是散列的效果更好,减少了hash的碰撞,让数据存放和获取的效率更佳。3. 初始化容量和负载因子接下来我们讨论下一个问题,从我们模仿hashmap的例子中以及hashmap默认的初始化大小里,都可以知道,散列数组需要一个2的幂次方的长度,因为只有2的幂次方在减1的时候,才会出现01111这样的值。
那么这里就有一个问题,我们在初始化hashmap的时候,如果传一个17个的值new hashmap(17);,它会怎么处理呢?
3.1 寻找2的幂次方最小值在hashmap的初始化中,有这样一段方法;
public hashmap(int initialcapacity, float loadfactor){
...
this.loadfactor = loadfactor;
this.threshold = tablesizefor(initialcapacity);
}
阈值threshold,通过方法tablesizefor进行计算,是根据初始化来计算的。这个方法也就是要寻找比初始值大的,最小的那个2进制数值。比如传了17,我应该找到的是32(2的4次幂是16>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n = maximum_capacity) ? maximum_capacity : n + 1;
}
maximum_capacity = 1 > 16);
system.out.println(字符串: + key + tidx(16): + ((16 - 1) & hash) + tbit值: + integer.tobinarystring(hash) + - + integer.tobinarystring(hash & 16) + ttidx(32): + ((
system.out.println(integer.tobinarystring(key.hashcode()) + + integer.tobinarystring(hash) + + integer.tobinarystring((32 - 1) & hash));
}
}
测试结果
字符串:jlkkidx(16):3bit值:1100011101001000010011 - 10000 idx(32):19
1100011101001000100010 1100011101001000010011 10011
字符串:lopiidx(16):14bit值:1100101100011010001110 - 0 idx(32):14
1100101100011010111100 1100101100011010001110 1110
字符串:jmdwidx(16):7bit值:1100011101010100100111 - 0 idx(32):7
1100011101010100010110 1100011101010100100111 111
字符串:e4weidx(16):3bit值:1011101011101101010011 - 10000 idx(32):19
1011101011101101111101 1011101011101101010011 10011
字符串:io98idx(16):4bit值:1100010110001011110100 - 10000 idx(32):20
1100010110001011000101 1100010110001011110100 10100
字符串:nmhgidx(16):13bit值:1100111010011011001101 - 0 idx(32):13
1100111010011011111110 1100111010011011001101 1101
字符串:vfg6idx(16):8bit值:1101110010111101101000 - 0 idx(32):8
1101110010111101011111 1101110010111101101000 1000
字符串:gfrtidx(16):1bit值:1100000101111101010001 - 10000 idx(32):17
1100000101111101100001 1100000101111101010001 10001
字符串:alpoidx(16):7bit值:1011011011101101000111 - 0 idx(32):7
1011011011101101101010 1011011011101101000111 111
字符串:vfbhidx(16):1bit值:1101110010111011000001 - 0 idx(32):1
1101110010111011110110 1101110010111011000001 1
字符串:bnhjidx(16):0bit值:1011100011011001100000 - 0 idx(32):0
1011100011011001001110 1011100011011001100000 0
字符串:zuioidx(16):8bit值:1110010011100110011000 - 10000 idx(32):24
1110010011100110100001 1110010011100110011000 11000
字符串:iu8eidx(16):8bit值:1100010111100101101000 - 0 idx(32):8
1100010111100101011001 1100010111100101101000 1000
字符串:yhjkidx(16):8bit值:1110001001010010101000 - 0 idx(32):8
1110001001010010010000 1110001001010010101000 1000
字符串:plopidx(16):9bit值:1101001000110011101001 - 0 idx(32):9
1101001000110011011101 1101001000110011101001 1001
字符串:dd0pidx(16):14bit值:1011101111001011101110 - 0 idx(32):14
1011101111001011000000 1011101111001011101110 1110
这里我们随机使用一些字符串计算他们分别在16位长度和32位长度数组下的索引分配情况,看哪些数据被重新路由到了新的地址。同时,这里还可以观察出一个非常重要的信息,原哈希值与扩容新增出来的长度16,进行&运算,如果值等于0,则下标位置不变。如果不为0,那么新的位置则是原来位置上加16。{这个地方需要好好理解下,并看实验数据}这样一来,就不需要在重新计算每一个数组中元素的哈希值了。4.2 数据迁移
bugstack.cn 数据迁移
这张图就是原16位长度数组元素,向32位扩容后数组转移的过程。对31取模保留低5位,对15取模保留低4位,两者的差异就在于第5位是否为1,是的话则需要加上增量,为0的话则不需要改变其中黄色区域元素zuio因计算结果hash & oldcap低位第5位为1,则被迁移到下标位置24。同时还是用重新计算哈希值的方式验证了,确实分配到24的位置,因为这是在二进制计算中补1的过程,所以可以通过上面简化的方式确定哈希值的位置。那么为什么 e.hash & oldcap == 0 为什么可以判断当前节点是否需要移位, 而不是再次计算hash;
仍然是原始长度为16举例:
old:
10: 0000 1010
15: 0000 1111
&: 0000 1010
new:
10: 0000 1010
31: 0001 1111
&: 0000 1010
从上面的示例可以很轻易的看出, 两次indexfor()的差别只是第二次参与位于比第一次左边有一位从0变为1, 而这个变化的1刚好是oldcap, 那么只需要判断原key的hash这个位上是否为1: 若是1, 则需要移动至oldcap + i的槽位, 若为0, 则不需要移动;
这也是hashmap的长度必须保证是2的幂次方的原因, 正因为这种环环相扣的设计, hashmap.loadfactor的选值是3/4就能理解了, table.length * 3/4可以被优化为((table.length >> 2) > 2) == table.length - (table.length >> 2), java的位运算比乘除的效率更高, 所以取3/4在保证hash冲突小的情况下兼顾了效率;
四、总结如果你能坚持看完这部分内容,并按照文中的例子进行相应的实验验证,那么一定可以学会本章节涉及这五项知识点;1、散列表实现、2、扰动函数、3、初始化容量、4、负载因子、5、扩容元素拆分。对我个人来说以前也知道这部分知识,但是没有验证过,只知道概念如此,正好借着写面试手册专栏,加深学习,用数据验证理论,让知识点可以更加深入的理解。这一章节完事,下一章节继续进行hashmap的其他知识点挖掘,让懂了就是真的懂了。好了,写到这里了,感谢大家的阅读。如果某处没有描述清楚,或者有不理解的点,欢迎与我讨论交流。以上就是面试记录:hashmap核心知识,扰动函数、负载因子、扩容链表拆分的详细内容。