今天我们接着来看HashMap的源码,对几个常用的方法进行分析。在分析之前,我们还是要先对HashMap的结构有一个了解。看过之前我分析的ArrayList和LinkedList源码的朋友应该清楚,ArrayList内部是以数组实现的,LinkedList内部是以链表实现的。而HashMap则是对数组和链表的结合,虽然看上去复杂了一些,不过仔细分析一下,还是很好理解的。我们来看一张图片,是我根据我的理解画的。
我们在来看看Entry的内部结构是什么:
以上两个图,相信大家对HashMap的结构有一个大致的了解了,在真正看代码之前,我先来介绍一下基本知识。从第一个图可以看出来,有的数组元素里连接着另一个Entry实例,有的只有一个,为什么会这样呢?是因为相同的key经过hash计算后,被分配到了相同的位置。为什么会出现这样的结果呢?是因为出现了hash冲突,即在一个较小的空间里存放较多的数据,必然会有一部分数据没有地方存放,那么这多出来的数据,就要挂在已存在的元素的下方,形成链表结构。以此来解决hash冲突。
下边我们跟着代码,来看看HashMap的具体实现。
内部使用的变量
static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // 默认的Entry数组的初始化大小,默认为16 static final int MAXIMUM_CAPACITY = 1 << 30; // 最大的Entry数组大小 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 负载因子,默认0.75,它的作用在下边我进行说明 static final Entry<?,?>[] EMPTY_TABLE = {}; // 空的Entry数组 transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE; transient int size; // HashMap中元素的个数 int threshold; // 临界值,<span style="font-family:Arial, Helvetica, sans-serif;">threshold = 负载因子 * 当前数组容量,实际个数超过临界值时,会进行扩容</span> final float loadFactor; // 负载因子 transient int modCount; // 更改次数
这里说明一下负载因子,负载因子,我们可以理解为空间的填满程度。
1、负载因子越大,填满的元素越多,空间利用率增加,hash冲突的机会增加,每个元素下挂载的链表会越来越长,同时会导致查找元素的效率变得低下。
2、负载因子越小,填满的元素越少,空间利用率降低,hash冲突减少,但是数组中的元素过于稀疏,导致数组中很多空间还没有用就开始扩容,不过好处是查找的元素的效率相对高一些。
所以,必然要在“查找效率”和“空间利用率”之中做一个折中,让它们处在一个相对的平衡状态。0.75就是这样的一个相对平衡的状态。
HashMap源码分析
构造方法分析
public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; threshold = initialCapacity; init(); } public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); } public HashMap() { this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR); } public HashMap(Map<? extends K, ? extends V> m) { this(Math.max((int) (m.size() / DEFAULT_LOAD_FACTOR) + 1, DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR); inflateTable(threshold); putAllForCreate(m); }
我们可以看到,一共有4个构造方法,前3个都很简单,只是简单的赋值,并没有其他操作。
我们来看最后一个构造方法,跟进inflateTable方法
private void inflateTable(int toSize) { // Find a power of 2 >= toSize int capacity = roundUpToPowerOf2(toSize); threshold = (int) Math.min(capacity * loadFactor, MAXIMUM_CAPACITY + 1); table = new Entry[capacity]; initHashSeedAsNeeded(capacity); }
可以看到,操作就是初始化Entry数组,在确定数组大小之前,还做了一个操作,我们来看看到底做了什么。
private static int roundUpToPowerOf2(int number) { return number >= MAXIMUM_CAPACITY ? MAXIMUM_CAPACITY : (number > 1) ? Integer.highestOneBit((number - 1) << 1) : 1; }
可能是我的水平不高,我对Java的位操作并不是很感冒,看到上边的代码,我完全不知道是在干嘛,没关系,我们写一个测试代码,看看他到底是干嘛的。
final int MAXIMUM_CAPACITY = 1 << 30; @Test public void test() { for (int i = 0; i < 100; i++) { System.out.println("i=" + i + "-->" + (i >= MAXIMUM_CAPACITY ? MAXIMUM_CAPACITY : (i > 1) ? Integer.highestOneBit((i - 1) << 1) : 1)); } }
测试代码很简单,我们来看看结果
看出来了吧?这段代码的作用是找到大于给定数字的2的n次方的数。。(我表述不太清楚。。表达能力有待提高啊)
找到这个数之后,将它作为初始化的数组大小,为什么是2的N次方,一会儿在解释。。
上边就是构造方法,其实其实就是做了初始化数组,赋值等工作,没有其他的。
put方法分析
public V put(K key, V value) { // 若为第一次put,则先初始化数组 if (table == EMPTY_TABLE) { inflateTable(threshold); } // key为null,防在table[0]即数组第一个的位置 if (key == null) return putForNullKey(value); // 根据key计算hash值,具体计算hash的算法我不太懂,还望有前辈能指点一下 int hash = hash(key); // 根据hash值和表的长度,确定这个元素存放在数组的第几个位置,即求得元素在数组中的位置的索引值 int i = indexFor(hash, table.length); // 遍历该位置的链表,如果有重复的key,则将value覆盖 for (Entry<K,V> e = table[i]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } // 修改次数+1 modCount++; // 将新加入的数据挂载到table[i]的位置 addEntry(hash, key, value, i); return null; }
我们来看看代码,putForNullKey方法,存储key为null方法,实质上与其他的值没有太大差别,区别是key为null的hashCode为0,所以他总是存储在table[0]的位置。
private V putForNullKey(V value) { for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(0, null, value, 0); return null; }
之后是根据key求得hashCode,不过里边的算法看不太懂,看过几篇文章,但是讲述的不是很明白,不过我们知道它的作用是计算hashCode的即可
final int hash(Object k) { int h = hashSeed; if (0 != h && k instanceof String) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); // 一系列位操作,不太明白要干什么,大致作用就是让元素在数组里分布的均匀一些 h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); }
之后就是根据hashCode和数组的长度,返回元素存储的索引位置
static int indexFor(int h, int length) { return h & (length-1); }
这块就能印证之前数组长度为什么要为2的N次方了。我们来分析一下
首先,若数组长度为2的N次方,则数组的长度必然为偶数,则,偶数-1必然为奇数,在2进制的表示中,奇数的最后一位为1,所以,与奇数做“&”操作,最后的结果可能为奇数,也可能为偶数。
其次,若数组长度不为偶数,则奇数-1为偶数,偶数在2进制中最后一位为0,那么与偶数做“&”操作,最后的结果只可能是偶数,不可能为奇数,所以在奇数位置的空间不会存储到元素,所以会有二分之一的空间被浪费掉。
综上所述,数组长度取2的N次方,目的是为了能让元素均匀的分布在数组中,减小发生冲突的机会。
得到存储的位置之后, 在数组中的该位置判断是否有值,没有的话就新增一个节点,挂载到数组这个位置的链表上,如果有值的话,则需要遍历当前链表,查看是否有重复的key,若有重复的key,则覆盖对应的value。若与已存在的链表的key不重复的话,则新增节点。
void addEntry(int hash, K key, V value, int bucketIndex) { // 判断数组是否需要扩容 if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } void createEntry(int hash, K key, V value, int bucketIndex) { Entry<K,V> e = table[bucketIndex]; table[bucketIndex] = new Entry<>(hash, key, value, e); size++; }
首先在新增元素前先判断是否需要扩容,我们先讨论不需要扩容的情况。
1、先将数组该位置的链表取出,然后新建Entry对象,将新建的Entry对象的next指向刚刚取出的已存在的链表
如图所示
我们再来看看需要扩容的情况,当现有的元素个数大于等于临界值的时候需要进行扩容,跟进resize方法
void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } Entry[] newTable = new Entry[newCapacity]; transfer(newTable, initHashSeedAsNeeded(newCapacity)); table = newTable; threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); } void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry<K,V> e : table) { while(null != e) { Entry<K,V> next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } } }
重点在transfer方法中,这也是HashMap不保证存放元素顺序的根源。实质上是新初始化了一个Entry数组,之后再次遍历之前的Entry数组,根据它们的hashCode重新计算他们在新数组的存放位置。在重新分配之后,原有的元素位置一定会发生改变,所以HashMap不会保证元素的存入取出顺序。
以上就是对put方法的分析。总结起来就是,使用key计算得到hashCode,之后得到该元素在数组中的存放位置,然后将其放入链表的头部,放入的过程中要对容量进行判断。
get方法分析
get方法相对来说就简单了许多
public V get(Object key) { if (key == null) return getForNullKey(); Entry<K,V> entry = getEntry(key); return null == entry ? null : entry.getValue(); } final Entry<K,V> getEntry(Object key) { if (size == 0) { return null; } int hash = (key == null) ? 0 : hash(key); for (Entry<K,V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) { Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } return null; }
其实原理就是得到位置索引,遍历链表。其余的就是一些条件判断,相对还是很好理解的。
我们经常使用的几种方法中,大致上都是这样的一个套路,理解了它的数据结构之后,在结合代码研究,还是很好理解的。