深入浅出 java concurrency (17): 并发容器 part 2 concurrentmap (2) -凯发k8网页登录

关注后端架构、中间件、分布式和并发编程

   :: 凯发k8网页登录首页 :: 新随笔 :: 联系 :: 聚合  :: 管理 ::
  111 随笔 :: 10 文章 :: 2680 评论 :: 0 trackbacks

本来想比较全面和深入的谈谈concurrenthashmap的,发现网上有很多对hashmap和concurrenthashmap分析的文章,因此本小节尽可能的分析其中的细节,少一点理论的东西,多谈谈内部设计的原理和思想。

要谈concurrenthashmap的构造,就不得不谈hashmap的构造,因此先从hashmap开始简单介绍。

 

hashmap原理

我们从头开始设想。要将对象存放在一起,如何设计这个容器。目前只有两条路可以走,一种是采用分格技术,每一个对象存放于一个格子中,这样通过对格子的编号就能取到或者遍历对象;另一种技术就是采用串联的方式,将各个对象串联起来,这需要各个对象至少带有下一个对象的索引(或者指针)。显然第一种就是数组的概念,第二种就是链表的概念。所有的容器的实现其实都是基于这两种方式的,不管是数组还是链表,或者二者俱有。hashmap采用的就是数组的方式。

有了存取对象的容器后还需要以下两个条件才能完成map所需要的条件。

  • 能够快速定位元素:map的需求就是能够根据一个查询条件快速得到需要的结果,所以这个过程需要的就是尽可能的快。
  • 能够自动扩充容量:显然对于容器而然,不需要人工的去控制容器的容量是最好的,这样对于外部使用者来说越少知道底部细节越好,不仅使用方便,也越安全。

首先条件1,快速定位元素。快速定位元素属于算法和数据结构的范畴,通常情况下哈希(hash)算法是一种简单可行的算法。所谓哈希算法,是将任意长度的二进制值映射为固定长度的较小二进制值。常见的md2,md4,md5,sha-1等都属于hash算法的范畴。具体的算法原理和介绍可以参考相应的算法和数据结构的书籍,但是这里特别提醒一句,由于将一个较大的集合映射到一个较小的集合上,所以必然就存在多个元素映射到同一个元素上的结果,这个叫“碰撞”,后面会用到此知识,暂且不表。

条件2,如果满足了条件1,一个元素映射到了某个位置,现在一旦扩充了容量,也就意味着元素映射的位置需要变化。因为对于hash算法来说,调整了映射的小集合,那么原来映射的路径肯定就不复存在,那么就需要对现有重新计算映射路径,也就是所谓的rehash过程。

好了有了上面的理论知识后来看hashmap是如何实现的。

在hashmap中首先由一个对象数组table是不可避免的,修饰符transient只是表示序列号的时候不被存储而已。size描述的是map中元素的大小,threshold描述的是达到指定元素个数后需要扩容,loadfactor是扩容因子(loadfactor>0),也就是计算threshold的。那么元素的容量就是table.length,也就是数组的大小。换句话说,如果存取的元素大小达到了整个容量(table.length)的loadfactor倍(也就是table.length*loadfactor个),那么就需要扩充容量了。在hashmap中每次扩容就是将扩大数组的一倍,使数组大小为原来的两倍。

 

然后接下来看如何将一个元素映射到数组table中。显然要映射的key是一个无尽的超大集合,而table是一个较小的有限集合,那么一种方式就是将key编码后的hashcode值取模映射到table上,这样看起来不错。但是在java中采用了一种更高效的办法。由于与(&)是比取模(%)更高效的操作,因此java中采用hash值与数组大小-1后取与来确定数组索引的。为什么这样做是更有效的?对这一块进行非常详细的分析,这篇文章的作者非常认真,也非常仔细的分析了里面包含的思想。

清单1 indexfor片段

static int indexfor(int h, int length) {
    return h & (length-1);
}

前面说明,既然是大集合映射到小集合上,那么就必然存在“碰撞”,也就是不同的key映射到了相同的元素上。那么hashmap是怎么解决这个问题的?

在hashmap中采用了下面方式,解决了此问题。

  1. 同一个索引的数组元素组成一个链表,查找允许时循环链表找到需要的元素。
  2. 尽可能的将元素均匀的分布在数组上。

对于问题1,hashmap采用了上图的一种数据结构。table中每一个元素是一个map.entry,其中entry包含了四个数据,key,value,hash,next。key和value是存储的数据;hash是元素key的hash后的表现形式(最终要映射到数组上),这里链表上所有元素的hash经过清单1 的indexfor后将得到相同的数组索引;next是指向下一个元素的索引,同一个链表上的元素就是通过next串联起来的。

再来看问题2 尽可能的将元素均匀的分布在数组上这个问题是怎么解决的。首先清单2 是将key的hashcode经过一系列的变换,使之更符合小数据集合的散列模型。

清单2 hashcode的二次散列

static int hash(int h) {
    // this function ensures that hashcodes that differ only by
    // constant multiples at each bit position have a bounded
    // number of collisions (approximately 8 at default load factor).
    h ^= (h >>> 20) ^ (h >>> 12);
    return h ^ (h >>> 7) ^ (h >>> 4);
}

至于清单2 为什么这样散列我没有找到依据,也没有什么好的参考资料。 分析了此过程,认为是一种比较有效的方式,有兴趣的可以研究下。

第二点就是在清单1 的描述中,尽可能的与数组的长度减1的数与操作,使之分布均匀。这在 中有介绍。

第三点就是构造数组时数组的长度是2的倍数。清单3 反映了这个过程。为什么要是2的倍数?在 中分析说是使元素尽可能的分布均匀。

清单3 hashmap 构造数组

// find a power of 2 >= initialcapacity
int capacity = 1;
while (capacity < initialcapacity)
    capacity <<= 1;

this.loadfactor = loadfactor;
threshold = (int)(capacity * loadfactor);
table = new entry[capacity];

另外loadfactor的默认值0.75和capacity的默认值16是经过大量的统计分析得出的,很久以前我见过相关的数据分析,现在找不到了,有兴趣的可以查询相关资料。这里不再叙述了。

有了上述原理后再来分析hashmap的各种方法就不是什么问题的。

清单4 hashmap的get操作

public v get(object key) {
    if (key == null)
        return getfornullkey();
    int hash = hash(key.hashcode());
    for (entry e = table[indexfor(hash, table.length)];
         e != null;
         e = e.next) {
        object k;
        if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
            return e.value;
    }
    return null;
}

清单4 描述的是hashmap的get操作,在这个操作中首先判断key是否为空,因为为空的话总是映射到table的第0个元素上(可以看上面的清单2和清单1)。然后就需要查找table的索引。一旦找到对应的map.entry元素后就开始遍历此链表。由于不同的hash可能映射到同一个table[index]上,而相同的key却同时映射到相同的hash上,所以一个key和entry对应的条件就是hash(key)==e.hash 并且key.equals(e.key)。从这里我们看到,object.hashcode()只是为了将相同的元素映射到相同的链表上(map.entry),而object.equals()才是比较两个元素是否相同的关键!这就是为什么总是成对覆盖hashcode()和equals()的原因。

清单5 hashmap的put操作

public v put(k key, v value) {
    if (key == null)
        return putfornullkey(value);
    int hash = hash(key.hashcode());
    int i = indexfor(hash, table.length);
    for (entry e = table[i]; e != null; e = e.next) {
        object k;
        if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
            v oldvalue = e.value;
            e.value = value;
            e.recordaccess(this);
            return oldvalue;
        }
    }

    modcount ;
    addentry(hash, key, value, i);
    return null;
}
void addentry(int hash, k key, v value, int bucketindex) {
    entry e = table[bucketindex];
        table[bucketindex] = new entry(hash, key, value, e);
        if (size >= threshold)
            resize(2 * table.length);
}

清单5 描述的是hashmap的put操作。对比get操作,可以发现,put实际上是先查找,一旦找到key对应的entry就直接修改entry的value值,否则就增加一个元素。增加的元素是在链表的头部,也就是占据table中的元素,如果table中对应索引原来有元素的话就将整个链表添加到新增加的元素的后面。也就是说新增加的元素再次查找的话是优于在它之前添加的同一个链表上的元素。这里涉及到就是扩容,也就是一旦元素的个数达到了扩容因子规定的数量(threhold=table.length*loadfactor),就将数组扩大一倍。

清单6 hashmap扩容过程

void resize(int newcapacity) {
    entry[] oldtable = table;
    int oldcapacity = oldtable.length;
    if (oldcapacity == maximum_capacity) {
        threshold = integer.max_value;
        return;
    }

    entry[] newtable = new entry[newcapacity];
    transfer(newtable);
    table = newtable;
    threshold = (int)(newcapacity * loadfactor);
}

void transfer(entry[] newtable) {
    entry[] src = table;
    int newcapacity = newtable.length;
    for (int j = 0; j < src.length; j ) {
        entry e = src[j];
        if (e != null) {
            src[j] = null;
            do {
                entry next = e.next;
                int i = indexfor(e.hash, newcapacity);
                e.next = newtable[i];
                newtable[i] = e;
                e = next;
            } while (e != null);
        }
    }
}

清单6 描述的是hashmap扩容的过程。可以看到扩充过程会导致元素数据的所有元素进行重新hash计算,这个过程也叫rehash。显然这是一个非常耗时的过程,否则扩容都会导致所有元素重新计算hash。因此尽可能的选择合适的初始化大小是有效提高hashmap效率的关键。太大了会导致过多的浪费空间,太小了就可能会导致繁重的rehash过程。在这个过程中loadfactor也可以考虑。

举个例子来说,如果要存储1000个元素,采用默认扩容因子0.75,那么1024显然是不够的,因为1000>0.75*1024了,所以选择2048是必须的,显然浪费了1048个空间。如果确定最多只有1000个元素,那么扩容因子为1,那么1024是不错的选择。另外需要强调的一点是扩容因此越大,从统计学角度讲意味着链表的长度就也大,也就是在查找元素的时候就需要更多次的循环。所以凡事必然是一个平衡的过程。

这里可能有人要问题,一旦我将map的容量扩大后(也就是数组的大小),这个容量还能减小么?比如说刚开始map中可能有10000个元素,运行一旦时间以后map的大小永远不会超过10个,那么map的容量能减小到10个或者16个么?答案就是不能,这个capacity一旦扩大后就不能减小了,只能通过构造一个新的map来控制capacity了。

 

hashmap的几个内部迭代器也是非常重要的,这里限于篇幅就不再展开了,有兴趣的可以自己研究下。

hashtable的原理和hashmap的原理几乎一样,所以就不讨论了。另外linkedhashmap是在map.entry的基础上增加了before/after两个双向索引,用来将所有map.entry串联起来,这样就可以遍历或者做lru cache等。这里也不再展开讨论了。

 

内部数据结构就是采用了hashmap类似的思想来实现的,有兴趣的可以参考资料8,9,10。

 

为了不使这篇文章过长,因此将concurrenthashmap的原理放到下篇讲。需要说明的是,尽管concurrenthashmap与hashmap的名称有些渊源,而且实现原理有些相似,但是为了更好的支持并发,concurrenthashmap在内部也有一些比较大的调整,这个在下篇会具体介绍。

 

 

参考资料:

 

 

 



©2009-2014 imxylz
|求贤若渴
posted on 2010-07-20 00:22 imxylz 阅读(22717) 评论(3)     所属分类: java concurrency
# re: 深入浅出 java concurrency (17): 并发容器 part 2 concurrentmap (2)[未登录] 2010-07-20 01:02
留下成长的足迹,楼主辛苦了。。  回复  
  

# re: 深入浅出 java concurrency (17): 并发容器 part 2 concurrentmap (2) 2013-07-19 17:10
扩容因此越大,从统计学角度讲意味着链表的长度就也大

应该是

因此扩容越小,从统计学角度讲意味着链表的长度就也大吧?  回复  
  

# re: 深入浅出 java concurrency (17): 并发容器 part 2 concurrentmap (2) 2014-08-07 11:30
好文章,谢谢分享。  回复  
  


©2009-2014
网站地图