之前写过一篇 SparseArray的源码解析 ,今天我们就对HashMap下手,撸一撸HashMap的源码。这篇文章的源码是从Android29中扒过来,实现方式是和JDK1.8里面的实现方式相似。
在jdk1.8的结构中,用的是数组+链表+红黑树的的结构来存放数据。使用红黑树能够加快增删改查的效率。
public class HashMap<K,V> extends AbstractMap<K,V> implements Map<K,V>, Cloneable, Serializable { //默认的数组的最小值 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 //默认的数组的最大值 static final int MAXIMUM_CAPACITY = 1 << 30; //默认的负载因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; //当数据量大于8的时候,调整为红黑树 static final int TREEIFY_THRESHOLD = 8; //小于6调整为链表 static final int UNTREEIFY_THRESHOLD = 6; //临界值,当HashMap的存储的信息超过这个值的话,就会进行扩容 int threshold; //当整个HashMap中的数量超过64的时候,也会转化为红黑树 static final int MIN_TREEIFY_CAPACITY = 64; //元素的数量 transient int size; //统计当前HashMap修改的次数 transient int modCount; //实际的负载因子值 final float loadFactor; 复制代码
Node<K,V> :节点信息类。在HashMap中,进行存储的时候,每个存储位置都是一个节点,节点类型就是Node<K,V>
//哈希节点信息,在HashMap中,每个节点都是Node对象 static class Node<K, V> implements Map.Entry<K, V> { //key所对应的哈希值 final int hash; final K key; V value; Node<K, V> next; Node(int hash, K key, V value, Node<K, V> next) { this.hash = hash; this.key = key; this.value = value; this.next = next; } .... } 复制代码
可以看到,节点有个next,指向了下一个节点信息。
TreeNode<K,V>:红黑树节点信息类。HashMap的某个槽点的保存的数据较多时,会将保存的结构从链表转化为红黑树,红黑树的节点信息就是TreeNode<K,V>
//转化为红黑树的时候使用的节点信息 static final class TreeNode<K, V> extends LinkedHashMap.LinkedHashMapEntry<K, V> { TreeNode<K, V> parent; // red-black tree links TreeNode<K, V> left; TreeNode<K, V> right; TreeNode<K, V> prev; // needed to unlink next upon deletion boolean red; TreeNode(int hash, K key, V val, Node<K, V> next) { super(hash, key, val, next); } 复制代码
红黑树的节点保存了父节点,左子节点,柚子节点以及前方节点信息
HashMap的构造函数有多个,我们一一的研究
public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } //设置了初始容量 public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } //设置了初始容量和负载因子 public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; //根据初始容量计算下一次扩容的临界值 this.threshold = tableSizeFor(initialCapacity); } 复制代码
HashMap这3个构造函数是相似的,最后一个构造函数的唯一的需要注意的就是 tableSizeFor 这个函数了。
//寻找大于输入参数且最近的2的整数次幂的数 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; } 复制代码
这个代码看起来贼神奇,我们看看他是如何做到能够找到最近的2的整数次幂的。
在二进制里面,2的整数次幂怎么表示? 0100...000。这种只有中间一个是1,其他位置都是0的,就是一个2的整数次幂。这里的实现方案是通过00111111...1111,然后+1处理,然后获取2的整数次幂。这里的处理方案
先来假设n的二进制为01xxx...xxx。接着
对n右移1位:001xx...xxx,再位或:011xx...xxx
对n右移2为:00011...xxx,再位或:01111...xxx
同理,通过右移,然后再位或,让最高位的1后面的位全变为1。也就是001111111111
最后再让结果n+1,即得到了2的整数次幂的值了。
除了以上三个,还有一个特殊的构造函数
//传入一个map,将map的数据保存到HashMap中 public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); } 复制代码
也是设置了默认的加载因子,然后调用了 putMapEntries 方法。
//传入一个map,将其保存到hashmap中, final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { if (table == null) { // pre-size //根据传入的长度计算容量, float ft = ((float) s / loadFactor) + 1.0F; //容量肯定不能超过HashMap的上下界限 int t = ((ft < (float) MAXIMUM_CAPACITY) ? (int) ft : MAXIMUM_CAPACITY); //初始化临界值,当t大于临界值的时候,进行临界值的计算。这个tableSizeFor方法 if (t > threshold) threshold = tableSizeFor(t); } else if (s > threshold)//table已经初始化了,并且s超过了临界值,则调用resize()进行扩容 resize(); //遍历,逐个把map的书放入到hashmap中 for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); putVal(hash(key), key, value, false, evict); } } } 复制代码
这个构造方法,传入的是Map,在进行处理的过程中,会先通过map的大小对HashMap进行容量或者临界值做一个处理。然后再遍历通过**putval()**方法,将数据保存到hashmap中。
public V put(K key, V value) { //第三个参数表示不管value是否为空,都进行数据的保存 return putVal(hash(key), key, value, false, true); } public V putIfAbsent(K key, V value) { return putVal(hash(key), key, value, true, true); } 复制代码
这个添加元素的方案应该是我们最最最常用的了吧?里面调用了一个函数的重载方法。 hash(key) 方法是计算key对应的哈希值。
我们先不看重载方法,而是先研究一下,在hashmap中的哈希值是如何计算的。
static final int hash(Object key) { int h; //如果key为空,那么hash为0。否则的话取hashCode值h,然后将其和h右移16位的值进行异或操作 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } 复制代码
这个代码看起来很简单,但是因为涉及到异或的处理以及哈希槽的分配问题,所以我们这里重点讲解一下。
为什么要无符号右移16位?
假如说我们现在有一个32位的hashcode值。
当h无符号右移16位以后,会将h的高16位移动到低16位位置。然后再和原来的h进行异或操作。这样就 可以将高低位的二进制特征进行混合起来 。高16位不会发生变化,只有低16位发生了变化。为什么要这么做呢?我们知道hashmap的数据存储是将其分配到具体的哈希槽中的。所以需要尽量的保证数据能够均匀的分配到不同的槽中。
而分配到哈希槽点的计算方法是 (n - 1) & hash (这个我们后面会讲)。在重要属性中我们知道,HashMap数组的大小(也就是哈希槽点的数量)的默认值是16。我们按照16来进行计算处理。
这时候,hashcode的高16位,因为槽点的数量限制,直接就屏蔽了高16位的信息。 如果我们不做刚才移位异或运算,那么在计算槽位时将丢失高区特征 。这样就会容易造成如果数据的hashcode的值差异在高位,不做移位异或计算,就会发生哈希碰撞。
为什么使用异或?
异或操作能够很好的保留特征信息。不管是 | 还是 & ,都会导致计算的数据偏向 0 或者 1。
为什么槽位必须是2^n?
当槽位数值是2^n的时候,计算槽位的公式-1,能够保证所有的位置都是1,进行 (n - 1) & hash 操作,分配的槽值位置的均匀度就不会受槽值的影响,而之受hash的影响。而我们在计算hash的时候又通过移位异或的计算从而保证其均匀性,从而减少了哈希碰撞。
对于HashMap的hash值的计算原理我们就说到这里有兴趣的小伙伴可以研究研究。我们这就继续源码了~
/** * 保存key,value * @param hash key对应的hash值 * @param key key值 * @param value value值 * @param onlyIfAbsent 如果是true:则只有对应的value为空的时候才保存。 * @param evict * @return */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //哈希数组 Node<K, V>[] tab; //p 该哈希桶的首节点 Node<K, V> p; //n 哈希的长度 // i:计算出来数据在哈希数组中的的数组下标 int n, i; //获取长度并进行扩容,使用的是懒加载,table一开始是没有加载的,等put后才开始加载 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //查找hash对应的哈希桶首节点 if ((p = tab[i = (n - 1) & hash]) == null) { //如果当前hash所对应的位置节点是空,则将其作为哈希桶的首节点 tab[i] = newNode(hash, key, value, null); } else { //哈希冲突了 //e表示key对应的数据在map中存在的节点信息 // k代表节点的key值 Node<K, V> e; K k; //哈希桶的首节点就是我们的key所在的位置.(需要哈希值相等,equal方法相同。所以这就是为什么在覆写equal方法的时候还要覆写hash) if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //不是哈希桶的首节点,如果哈希桶的首节点是红黑树节点。则将其放到红黑树 else if (p instanceof TreeNode) e = ((TreeNode<K, V>) p).putTreeVal(this, tab, hash, key, value); else { //否则就放入到数据链中 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) {//到链表结尾了,那么将key和value放到链表结尾 p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st //链表数量超过了8,则变为红黑树 treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } //如果插入的key所对应的值存在则进行覆盖且则返回旧值 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } //增加实际数据长度,如果满足要求则扩容。 ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); //添加成功,则返回空 return null; } 复制代码
在进行key,value存储的过程中,会根据具体的情况来进行分析处理。
这里面有几个函数需要我们去关注一下。
这个函数有2个作用,一个是初始化,另一个是进行扩容工作。扩容是将数组的容量加倍,然后将每个位置的数据再重新计算放置到新的数组中。
// 初始化或扩容。 // 当table是null时,根据临界值threshold成员变量来初始化table的大小。 // 如果table已经初始化,那么哈希桶里面的元素要么处于该table下标,要么处于该table下标再加某个2的幂 final Node<K, V>[] resize() { //保存旧版本的表 Node<K, V>[] oldTab = table; //旧表的表容量 int oldCap = (oldTab == null) ? 0 : oldTab.length; //旧的临界值 int oldThr = threshold; //新的容量和新的临界值 int newCap, newThr = 0; if (oldCap > 0) {//如果table表已经进行了初始化,则进行扩容处理。 if (oldCap >= MAXIMUM_CAPACITY) {//如果table已经超过了上限,不再扩容了 threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&//进行扩容 oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // 装载因子不变,所以容量翻倍,阈值也翻倍 double threshold } //如果调用public HashMap(int initialCapacity, float loadFactor)方法进行初始化,会根据传输的容量初始化设置了阈值,但是并没有存放数据,table也没有初始化 //这时候直接将阈值赋值给新的变量 else if (oldThr > 0)//初始容量设置为阈值 // initial capacity was placed in threshold newCap = oldThr; else { //初始阈值为零表示使用默认值 // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int) (DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //如果临界值为0,则设置临界值为容量*负载因子 if (newThr == 0) { float ft = (float) newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float) MAXIMUM_CAPACITY ? (int) ft : Integer.MAX_VALUE); } //设置新的临界值 threshold = newThr; //创建新表 @SuppressWarnings({"rawtypes", "unchecked"}) Node<K, V>[] newTab = (Node<K, V>[]) new Node[newCap]; table = newTab; //进行新表的数据保存 if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K, V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null)//如果只有一个节点,则直接将其保存到新的数据首节点位置 newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode)//如果是红黑树,则把红黑树进行拆分 ((TreeNode<K, V>) e).split(this, newTab, j, oldCap); else { //链表 preserve order //进行2倍扩容的话,其实相当于把原来的数组内部的数据分别放到了i+n的位置和当前的i内。并不会放到其他的位置。 //e.hash & (newCap - 1)->因为位数都是以,所以得出的信息 Node<K, V> loHead = null, loTail = null; Node<K, V> hiHead = null, hiTail = null; Node<K, V> next; do { next = e.next; //比如原来cap是0100,则位置是hash&(0011)的到的坐标。扩容以后就是hash&(0111)。 // 所以是否需要移动,只需要看0100,这个1的位置即可 // 如果这个bit等于0,说明新table下标和旧table下标是一样的 if ((e.hash & oldCap) == 0) { //如果Low表的数据还没有初始化,则进行初始化,否则就将数据放到列表的下一位 if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else {//否则的话,放入到i+n位置的数组内 if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); //将两个链表的头节点放入到数组中 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; } 复制代码
在进行初始化或者存放数据后,都会进行这个方法的调用。
//将hash所对应的那个哈希桶变为红黑树结构 final void treeifyBin(Node<K, V>[] tab, int hash) { int n, index; Node<K, V> e; //如果数组为空,进行初始化。如果数组的长度小于64,会进行扩容操作,因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的 //所以会先进行扩容,只有当容量大于64,才会进行将链表结构变化为红黑树 if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) resize(); else if ((e = tab[index = (n - 1) & hash]) != null) { //e是hash对应的数组位置的首节点 TreeNode<K, V> hd = null, tl = null; do { //创建一个树形节点 TreeNode<K, V> p = replacementTreeNode(e, null); //将所有的树形节点,按照双向链表的方式保存 if (tl == null) hd = p; else { p.prev = tl; tl.next = p; } tl = p; } while ((e = e.next) != null); //将链表转化为红黑树结构 if ((tab[index] = hd) != null) hd.treeify(tab); } } 复制代码
这个方法会在某个哈希桶保存的数据量超过8个的时候进行调用。里面会根据情况进行扩容或者转化为红黑树。
如果发现哈希桶的数量小于64,会进行扩容工作。因为hashmap会认为是因为数组太小大,导致的哈希桶太挤导致的。
在转化为红黑树的过程中,会将现有的Node转化为TreeNode,然后会调用 treeify 方法将双向链表转化为红黑树。
这个方法是从红黑树中进行数据的遍历处理,如果获取到相同的key,则返回对应的位置信息,否则就通过红黑树的比较方式,将数据存入红黑树中。
比较重要的几个函数讲完了,我们可以简单看看其他几个添加的方法
//将一个map保存到hashmap中 public void putAll(Map<? extends K, ? extends V> m) { putMapEntries(m, true); } 复制代码
这个调用的方法和我们的构造函数中使用的是一样的,我们之前做过解析,这里就不用再看了
public V remove(Object key) { Node<K, V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; } //key和value都相同的才进行移除 public boolean remove(Object key, Object value) { return removeNode(hash(key), key, value, true, true) != null; } 复制代码
会调用一个函数重载方法
/** * * @param hash 对应的hash值 * @param key 对应的key * @param value 对应的value * @param matchValue 是否需要value匹配,如果为true的话,只有保存的value和传入的参数value相同,才移除 * @param movable 如果为false,则在删除时不移动其他节点 * @return */ final Node<K, V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K, V>[] tab; Node<K, V> p; int n, index; if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) {//hash所对应的哈希桶存在而且不不为空 //node用来保存找到的key相等的符合要求的节点 Node<K, V> node = null, e; K k; V v; if (p.hash == hash && //如果key相等,则直接返回p节点信息 ((k = p.key) == key || (key != null && key.equals(k)))) node = p; else if ((e = p.next) != null) { if (p instanceof TreeNode) //如果当前哈希桶是红黑树,则通过红黑树来进行查找 node = ((TreeNode<K, V>) p).getTreeNode(hash, key); else {//否则通过遍历链表搜索,搜索完的话 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } //如果找到了对应的节点信息,则根据入参进行数据的删除。 if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { if (node instanceof TreeNode) ((TreeNode<K, V>) node).removeTreeNode(this, tab, movable); else if (node == p) tab[index] = node.next; else p.next = node.next; ++modCount; --size; afterNodeRemoval(node); return node; } } return null; } 复制代码
这里会根据hash来判断key可能在的 哈希桶的位置,然后从哈希桶的根节点开始遍历。当然了,哈希桶可能是红黑树也可能是链表,需要根据不同的情况来遍历查找节点。
当查找到节点以后,会根据入参来判断是否进行移除工作。
我们来看下一个移除的函数(清空)
public void clear() { Node<K, V>[] tab; //修改次数+1 modCount++; //如果哈希数组不为空,则遍历所有的哈希桶,将其所有的首节点设置为空 if ((tab = table) != null && size > 0) { size = 0; for (int i = 0; i < tab.length; ++i) tab[i] = null; } } 复制代码
清空操作相对来说比较简单,会把所有的哈希桶的首节点都置为null,然后将hashmap的size置为0。
public V get(Object key) { Node<K, V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K, V> getNode(int hash, Object key) { Node<K, V>[] tab; Node<K, V> first, e; int n; K k; //hash所对应的哈希桶是存在的 if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //首先检测首节点是否是我们需要查找的数据,如果是的话,直接返回 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; //如果不是,遍历 if ((e = first.next) != null) { if (first instanceof TreeNode) //如果是红黑树,则从红黑树获取 return ((TreeNode<K, V>) first).getTreeNode(hash, key); do {//链表结构的话,遍历链表查询 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; } 复制代码
对于数据的获取,通过重载函数进行了查询处理。
在JDK8中的HashMap是非线程安全的,会发生数据覆盖问题。而非线程安全的问题主要出现在数据的插入操作。
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { ... if ((p = tab[i = (n - 1) & hash]) == null) // 如果没有hash碰撞则直接插入元素 tab[i] = newNode(hash, key, value, null); ... if (++size > threshold) resize(); ... } 复制代码
首先,在第一个地方,假设线程A、B都在执行put的操作,当线程执行完条件判断完成以后由于时间片耗尽而被挂起,而线程B得到时间片后载该下标处进行了插入元素的操作,完成了正常的插入操作。然后这个时候A获取时间片以后,由于之前进行过条件判断,所以不再进行判断而是直接进行数据的插入,会导致线程B的数据被线程A覆盖了,从而线程不安全。
其次,在第二个位置,++size的操作,在进行操作的时候,在底层会进行多个处理,首先取得size值,然后再进行++,最后将值进行保存。并非是一个原子操作。所以会存在线程安全的问题。