java.util.Map
接口,继承 java.util.AbstractMap
抽像类。 java.io.Serializable
接口。 java.lang.Cloneable
接口。 HashMap
:今天的主角 Hashtable
:线程安全,但性能不如 ConcurrentHashMap
,没必要继续使用了 LinkedHashMap
: HashMap
的子类,保存了元素插入的顺序。 TreeMap
:能够根据key排序。key必须实现 Comparable
接口或构造 TreeMap
时传入自定义比较器。 HashMap底层是依靠数组+链表(jdk1.8后引入了红黑树)实现的。查询操作如何实现O(1)的时间复杂度是我们最关心的问题。 来看它的几个主要属性:
Node<K,V>[] table int threshold float loadFactor int size
简单来讲,HashMap内部维护了一个Node数组 table
,数组上的每一个位置叫做一个哈希桶。那么如何利用数组的特性来存储键值对?
对key求hash值就可以把key转为一个整数,以此作为下标就可以存在数组里了。但还不够,数组长度不够用怎么办?
那就把 hash(key)
对数组长度取模,用 hash(key) % (table.length -1)
作为下标就好了。还是不够,不同的key计算出来的值一样怎么办?
这也就是哈希冲突了。HashMap采用了链表法处理。每一个哈希桶都对应一个链表,如果发生哈希冲突就把新的value放在链表末尾。这样如果一个链表过长,还是会影响性能。从java8开始做了优化,当链表太长时,就转为红黑树。
而扩容也是查询操作保持O(1)时间复杂度的重要手段,我们希望尽量每个桶里都只放了一个元素。 threshold
是扩容阈值,指当 size
超过 threshold
时,HashMap会进行扩容。扩容阈值通过 threshold = table.length * loadFactor
计算得到。扩容操作是非常消耗性能的,在初始化HashMap时,最好估算大小,用 HashMap(int initialCapacity)
方法构造,避免频繁进行扩容。
loadFactor
是对空间和时间的一种平衡选择。数据量相同的情况下, loadFactor
越小,HashMap占用的空间越大,但越不容易哈希冲突,查询效率越高。相反, loadFactor
越大,占用空间越小,查询效率越低。 loadFactor
默认值0.75,除非在特殊情况下,不建议修改。
table
的长度总是2的n次方。这样 hash(key) % (table.length -1)
可以写为 hash(key) & (table.length -1)
,位运算要有更高的效率。
HashMap()
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 static final float DEFAULT_LOAD_FACTOR = 0.75f; public HashMap() { // 使用默认负载因子创建一个空的HashMap (table会在第一次使用时初始化,默认初始容量为16) this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted } 复制代码
HashMap(int initialCapacity)
public HashMap(int initialCapacity) { // 创建一个指定容量(会计算得到2的幂)、默认负载因子的HashMap this(initialCapacity, DEFAULT_LOAD_FACTOR); } 复制代码
HashMap(int initialCapacity, float loadFactor)
public HashMap(int initialCapacity, float loadFactor) { // 校验 if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); // 给定容量超过最大容量,则使用最大容量 if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; // 校验 if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + // 设置负载因子 loadFactor); this.loadFactor = loadFactor; // 计算扩容阈值 this.threshold = tableSizeFor(initialCapacity); // 注意这个方法 } /** * 容量必须是2的幂,通过此方法计算得到大于给定容量的最小的2的幂 */ static final int tableSizeFor(int cap) { // 从二进制cap的最左边的1开始,全部设置为 1 ,得到 n ,这样 n + 1就是要求的值 int n = -1 >>> Integer.numberOfLeadingZeros(cap - 1); // cap - 1 再计算避免cap假设刚好是8,但 n=16 这是不对的。 // cap 是 0 或 1 的时候 n 是 -1,此时返回 1 return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; } 复制代码
HashMap(Map<? extends K, ? extends V> m)
public HashMap(Map<? extends K, ? extends V> m) { // 设置负载因子 this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); } final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { int s = m.size(); if (s > 0) { // table 为空,还未初始化 if (table == null) { // pre-size // 由map大小和负载因子计算table大小 float ft = ((float)s / loadFactor) + 1.0F; // 因为下边(int)向下取整 int t = ((ft < (float)MAXIMUM_CAPACITY) ? (int)ft : MAXIMUM_CAPACITY); // 新的容量大于扩容阈值,则计算新的扩容阈值 if (t > threshold) threshold = tableSizeFor(t); // 若不为空 扩容直到够用或达到最大值 } else { // Because of linked-list bucket constraints, we cannot // expand all at once, but can reduce total resize // effort by repeated doubling now vs later while (s > threshold && table.length < MAXIMUM_CAPACITY) resize(); } // 遍历,将元素挨个添加到HashMap中 for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); // 后边再看 putVal(hash(key), key, value, false, evict); } } } 复制代码
V put(K key, V value)
/** * 链表转为红黑树的临界值 */ static final int TREEIFY_THRESHOLD = 8; /** * 红黑树退化为链表的临界值 */ static final int UNTREEIFY_THRESHOLD = 6; public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; // table 未初始化或容量为0 则扩容 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()/*扩容*/).length; if ((p = tab[i = (n - 1) & hash]/*获得对应位置的 Node 节点*/) == null) // 如果是空,直接new 一个新的 node 放在这个位置 tab[i] = newNode(hash, key, value, null); else { // 如果不是空 Node<K,V> e; // 目标node,存放新加入元素的node K k; // 如果 hash 值相等且 key 也相等,那这个 node 就是要找的 node if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 如果 p 是树节点 else if (p instanceof TreeNode) // 直接添加到树中 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { // 顺序遍历链表 for (int binCount = 0; ; ++binCount) { // 目标节点 e 指向 p 的下一个节点,如果已经遍历到链表尾部,说明 key 不在 HashMap 中 if ((e = p.next) == null) { // 创建新节点 p.next = newNode(hash, key, value, null); // 如果链表长度达到 TREEIFY_THRESHOLD 时,转为树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; // 跳出循环 } // 如果 hash 和 key 都相等,说明找到了目标 node if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; // 跳出循环 p = e; // p指向下一个节点 } } // 找到了 key 对应的节点 if (e != null) { // existing mapping for key V oldValue = e.value; // 如果允许修改节点,则修改 if (!onlyIfAbsent || oldValue == null) e.value = value; // 节点被访问的回调函数 afterNodeAccess(e); // 返回旧值 return oldValue; } } // 增加修改次数 ++modCount; // 如果超过扩容阈值,则进行扩容 if (++size > threshold) resize(); // 添加节点后的回调 afterNodeInsertion(evict); return null; } 复制代码
Node<K,V>[] resize()
final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; // 注意这里 int oldThr = threshold; int newCap, newThr = 0; // oldCap > 0, table 非空 if (oldCap > 0) { // 如果超过最大容量 if (oldCap >= MAXIMUM_CAPACITY) { // 扩容阈值设为最大值,返回旧table,不允许再扩容 threshold = Integer.MAX_VALUE; return oldTab; } // 旧容量大于默认初始化容量且扩容两倍后小于最大容量,则扩容两倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } // oldCap <= 0 , table 为空,所以下边是初始化的情况 // oldThr > 0, 非默认构造函数的情况 // 直接用oldThr 当做新的容量。oldThr由tableSizeFor()方法得出,一定是2的幂 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; // 默认构造函数的情况 else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 如果上边没有给出新的扩容阈值,则用 newCap * loadFactor 计算 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } // 新 扩容阈值 赋值 threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; // 用新的容量创建新的 table 并赋值 table = newTab; // 如果旧 table 不是空,需要搬运数据 if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { // j 位置的节点 Node<K,V> e; // 如果节点不为空 if ((e = oldTab[j]) != null) { // 置空旧table oldTab[j] = null; // 如果只有一个元素,直接赋值 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; // 如果是树节点 else if (e instanceof TreeNode) // 处理。。。 ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); // 如果是链表 else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next; // 扩容一倍后,原来位置的链表节点,要被分配到新 table 的两个位置上去 // 如果去高位 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // 如果去低位 else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 低位放在新 table j 位置 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 高位放在新 table j + oldCap 位置 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; } 复制代码
V remove(Object key)
public V remove(Object key) { Node<K,V> e; return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value; } final Node<K,V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) { Node<K,V>[] tab; Node<K,V> p; int n, index; // table非空校验,拿到 hash 对应位置的 p 节点,并且 p 节点不为null if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) { Node<K,V> node = null, e; K k; V v; // 目标节点 // 通过 hash 和 equals 判断 p 节点 就是 目标节点 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) node = p; // 如果不是 else if ((e = p.next) != null) { // 如果是树 if (p instanceof TreeNode) node = ((TreeNode<K,V>)p).getTreeNode(hash, key); // 链表 else { // 遍历查找目标节点 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) { node = e; break; } p = e; } while ((e = e.next) != null); } } // 如果找到了目标节点 // 是否要校验 value 相等,如果 matchValue 为 true 则进行校验 if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) { // 如果是树 则在树中删除 if (node instanceof TreeNode) ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable); // 如果node 就是 p , 也就是链表的头结点,则将下一个节点放在 table 该位置中,实现移除 else if (node == p) tab[index] = node.next; // 如果不是头结点,把 p 的 next 指向 node 的 next,实现移除 else p.next = node.next; // 增加修改次数 ++modCount; // size - 1 --size; // 移除node的回调 afterNodeRemoval(node); // 返回被移除的node return node; } } // 没找到 就返回null return null; } 复制代码
V get(Object key)
public V get(Object key) { Node<K,V> e; return (e = getNode(hash(key), key)) == null ? null : e.value; } final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; // 拿到 table 中对应位置的节点 p if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { // 如果该位置头结点就是要找的,直接返回 if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; // 如果后边还有 if ((e = first.next) != null) { // 如果是树 去树里找 if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); // 如果是链表 遍历查找 do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; } 复制代码