HashMap、ConcurrentHashMap以及HashTable(面试向)

---->HashMap

在java1.7中,hashmap的数据结构是基于数组+链表的结构,即我们比较熟悉的Entry数组,其包含的(key-value)键值对的形式。在多线程环境下,HashMap进行put操作会引起死循环,是因为多线程会导致HashMap的Entry链表形成环形数据结构,一旦形成环形数据结构,Entry的next节点永远不为空,就会产生死循环获取Entry。

hashmap实现原理参考

Entry是HashMap中的一个静态内部类。代码如下

 static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;//存储指向下一个Entry的引用,单链表结构
        int hash;//对key的hashcode值进行hash运算后得到的值,存储在Entry,避免重复计算

        /**
         * Creates new entry.
         */
        Entry(int h, K k, V v, Entry<K,V> n) {
            value = v;
            next = n;
            key = k;
            hash = h;
        } 

在java1.8中,hashmap是以 数组+链表+红黑树,由于有红黑树的加入,hashmap性能有了很大程度的优化,但是还是没办法解决在并发环境下的线程安全。

---->HashTable

hashtabled 和 hashmap 的实现原理几乎一样,差别在于

  • HashMap的键和值都允许有null值存在,而HashTable则不行
  • HashMap是非线程安全的,HashTable是线程安全的
  • 在单线程环境下,HashMap的运行效率是要比HashTable要快得多的(因为HashTable是线程安全,但是其实现的安全的策略牺牲代价太大,get/put所有相关操作都是synchronized的,相当于给整个哈希表加了一个大锁,多线程访问时候,只要有一个线程访问或操作该对象时,则其他线程就只能阻塞,相当于将所有的操作串行化)
  • Hashtable默认的初始大小为11,之后每次扩充,容量变为原来的2n+1。HashMap默认的初始化大小为16。之后每次扩充,容量变为原来的2倍
  • HashMap的Iterator是fail-fast迭代器。当有其它线程改变了HashMap的结构(增加,删除,修改元素),将会抛出ConcurrentModificationException。不过,通过Iterator的remove()方法移除元素则不会抛出ConcurrentModificationException异常。但这并不是一个一定发生的行为,要看JVM。JDK8之前的版本中,Hashtable是没有fast-fail机制的。在JDK8及以后的版本中 ,HashTable也是使用fast-fail的。

 ---->ConcurrentHashMap

在java1.7中,concurrenthashmap的数据结构为 Segment + HashEntry,ConcurrentHashMap锁分段技术:假如容器里有多把锁,每一把锁用于锁容器其中一部分数据,那么当多线程访问容器里不同数据段的数据时,线程间就不会存在锁竞争,从而可以有效的提高并发访问效率,这就是ConcurrentHashMap所使用的锁分段技术。首先将数据分成一段一段的存储,然后给每一段数据配一把锁,当一个线程占用锁访问其中一个段数据的时候,其他段的数据也能被其他线程访问。用一个Segment数组维护所有的键值对,一个Segment对象的数据结构相当于一个HashMap,即内部拥有一个Entry数组,数组中的每个元素又是一个链表;同时又是一个ReentrantLock(Segment继承了ReentrantLock)。ConcurrentHashMap中的HashEntry相对于HashMap中的Entry有一定的差异性:HashEntry中的value以及next都被volatile修饰,这样在多线程读写过程中能够保持它们的可见性,代码如下:

static final class HashEntry<K,V> {
        final int hash;
        final K key;
        volatile V value;
        volatile HashEntry<K,V> next;

ConcurrentHashMap不允许Key或者Value的值为NULL

在java1.8中,它摒弃了Segment(锁段)的概念,而是启用了一种全新的方式实现,利用CAS算法。它沿用了与它同时期的HashMap版本的思想,底层依然由“数组”+链表+红黑树的方式思想,接采用transient volatile Node<K,V>[] table保存数据,采用table数组元素作为锁,从而实现了对每一行数据进行加锁,进一步减少并发冲突的概率

并且,ConcurrentHashMap相对于HashTable来说,ConcurrentHashMap的很多操作比如get,clear,iterator 都是弱一致性的,而HashTable是强一致性的。

何为弱一致性?

get方法是弱一致的,是什么含义?可能你期望往ConcurrentHashMap底层数据结构中加入一个元素后,立马能对get可见,但ConcurrentHashMap并不能如你所愿。换句话说,put操作将一个元素加入到底层数据结构后,get可能在某段时间内还看不到这个元素,若不考虑内存模型,单从代码逻辑上来看,却是应该可以看得到的。

因为没有全局的锁,在清除完一个segments之后,正在清理下一个segments的时候,已经清理segments可能又被加入了数据,因此clear返回的时候,ConcurrentHashMap中是可能存在数据的。因此,clear方法是弱一致的。如下:

public void clear() {
    for (int i = 0; i < segments.length; ++i)
        segments[i].clear();
}

ConcurrentHashMap的迭代器底层原理中,在遍历过程中,如果已经遍历的数组内容发生了变化,迭代器不会抛出ConcurrentModificationException异常。如果未遍历的数组上的内容发生了变化,则有可能反映到迭代过程中。这就是ConcurrentHashMap迭代器弱一致的表现。

参考:ConcurrentHashMap能完全替代HashTable吗?

参考:ConcurrentHashMap总结

原文地址:https://www.cnblogs.com/liangyueyuan/p/9743652.html

时间: 2024-11-11 12:43:43

HashMap、ConcurrentHashMap以及HashTable(面试向)的相关文章

HashMap的扩容机制, ConcurrentHashMap和Hashtable主要区别

源代码查看,有三个常量, static final int DEFAULT_INITIAL_CAPACITY = 16; static final int MAXIMUM_CAPACITY = 1 << 30; static final float DEFAULT_LOAD_FACTOR = 0.75f; 三个常量中可以看出,默认的容器大小是16,最大长度是2的30次方,load factor默认是0.75,扩充的临界值是16*0.75=12 当我们往HashMap中put元素的时候,先根据k

hashmap,ConcurrentHashMap与hashtable的区别

1.hashmap与hashtable的区别 1.我们从他们的定义就可以看出他们的不同,HashTable基于Dictionary类,而HashMap是基于AbstractMap.Dictionary是什么?它是任何可将键映射到相应值的类的抽象父类,而AbstractMap是基于Map接口的骨干实现,它以最大限度地减少实现此接口所需的工作. 2.HashMap可以允许存在一个为null的key和任意个为null的value,但是HashTable中的key和value都不允许为null. 3.H

Java基础知识强化之集合框架笔记78:ConcurrentHashMap之 ConcurrentHashMap、Hashtable、HashMap、TreeMap区别

1. Hashtable: (1)是一个包含单向链的二维数组,table数组中是Entry<K,V>存储,entry对象: (2)放入的value不能为空: (3)线程安全的,所有方法均用synchronized修饰: 2. HashMap: (1)相当于Hashtable的升级版本: (2)可以放入空值: (3)基于hash表实现: (4)按插入的顺序存储: (5)线程不安全:因为多线程环境下,使用HashMap进行put操作会引起死循环,导致CPU利用率接近100%,所以在并发情况下不能使

HashMap与ConcurrentHashMap、HashTable

(1)HashMap的线程不安全原因一:死循环 原因在于HashMap在多线程情况下,执行resize()进行扩容时容易造成死循环. 扩容思路为它要创建一个大小为原来两倍的数组,保证新的容量仍为2的N次方,从而保证上述寻址方式仍然适用.扩容后将原来的数组从新插入到新的数组中.这个过程称为reHash. [单线程下的reHash]  扩容前:我们的HashMap初始容量为2,加载因子为1,需要向其中存入3个key,分别为5.9.11,放入第三个元素11的时候就涉及到了扩容. 第一步:先创建一个二倍

源码分析--ConcurrentHashMap与HashTable(JDK1.8)

ConcurrentHashMap和Hashtable都是线程安全的K-V型容器.本篇从源码入手,简要说明它们两者的实现原理和区别. 与HashMap类似,ConcurrentHashMap底层也是以数组+链表+红黑树实现的,以Node节点封装K-V和hash. static class Node<K,V> implements Map.Entry<K,V> { final int hash; final K key; volatile V val; volatile Node&l

ConcurrentHashMap和HashTable的区别?

ConcurrentHashMap和HashTable的区别? 参考: 博客主dreamcatcher-cx ? GitHub Guide哥 底层数据结构:JDK1.7底层采用 数组+链表 实现.JDK1.8采用 数组+链表/红黑二叉树 实现.HashTable一直都采用的是 数组+链表 的形式,数组是HashMap的主体,链表主要是解决冲突而存在的. 实现线程安全的方式: ConcurrentHashMap:JDK1.7,ConcurrentHashMap(分段锁)对整个桶数组进行了分割分段(

ConcurrentHashMap和Hashtable区别

Hashtable:synchronized是针对整张Hash表的,即每次锁住整张表让线程独占安全的背后是巨大的浪费 ConcurrentHashMap和Hashtable主要区别就是围绕着锁的粒度以及如何锁 左边便是Hashtable的实现方式---锁整个hash表:而右边则是ConcurrentHashMap的实现方式---锁桶(或段).ConcurrentHashMap将hash表分为16个桶(默认值),诸如get,put,remove等常用操作只锁当前需要用到的桶.试想,原来只能一个线程

HashMap,LinkedHashMap和Hashtable类的深入剖析与理解

上一篇文章写了一些关于HashMap以及HashMap的线程安全问题,这篇文章再来说说Map系列中HashMap,LinkedHashMap和Hashtable三者之间的差异以及该注意的地方. HashMap的该注意的地方就不赘述了,上一篇已经描述过了. 一,LinkedHashMap的知识点 从类名上理解,这个类是个链表HashMap,这个类继承了HashMap,重写了父类的一些方法.关于LinkedHashMap,有以下注意的地方: LinkedHashMap的初始默认容量为16,载入因子为

ConcurrentHashMap、HashTable、HashMap的区别

HashTable与ConcurrentHashMap: 相同点:都是线程安全的,可以在多线程的环境下运行.key和value都不能为null 区别:性能上的差异.HashTable每次操作对象都会锁住对象,性能差:而ConcurrentHashMap内部使用Segment数组,每个Segment类似于Hashtable,在操作的时候仅会锁住当前操作的某个Segment对象,其它的线程能够并发执行其它的Segment对象,性能比较好. HashTable与HashMap: 相同点:都是以键值对存