【转】Java并发编程:并发容器之ConcurrentHashMap
JDK5中添加了新的concurrent包,相對同步容器而言,并發(fā)容器通過一些機(jī)制改進(jìn)了并發(fā)性能。因?yàn)橥饺萜鲗⑺袑θ萜鳡顟B(tài)的訪問都串行化了,這樣保證了線程的安全性,所以這種方法的代價就是嚴(yán)重降低了并發(fā)性,當(dāng)多個線程競爭容器時,吞吐量嚴(yán)重降低。因此Java5.0開始針對多線程并發(fā)訪問設(shè)計(jì),提供了并發(fā)性能較好的并發(fā)容器,引入了java.util.concurrent包。與Vector和Hashtable、Collections.synchronizedXxx()同步容器等相比,util.concurrent中引入的并發(fā)容器主要解決了兩個問題:
1)根據(jù)具體場景進(jìn)行設(shè)計(jì),盡量避免synchronized,提高并發(fā)性。
2)定義了一些并發(fā)安全的復(fù)合操作,并且保證并發(fā)環(huán)境下的迭代操作不會出錯。
util.concurrent中容器在迭代時,可以不封裝在synchronized中,可以保證不拋異常,但是未必每次看到的都是“最新的、當(dāng)前的”數(shù)據(jù)。
下面是對并發(fā)容器的簡單介紹:
ConcurrentHashMap代替同步的Map(Conllections.synchronizedMap(new HashMap<>())),眾所周知,HashMap是根據(jù)散列值分段存儲的,同步Map在同步的時候鎖住了所有的段,而ConcurrentHashMap加鎖的時候根據(jù)散列值鎖住了散列值鎖對應(yīng)的那段,因此提高了并發(fā)性能。
ConcurrentHashMap也增加了對常用復(fù)合操作的支持,比如“若沒有則添加”:putIfAbsent(),替換:replace()。這2個操作都是原子操作。
CopyOnWriteArrayList和CopyOnWriteArraySet分別代替List和Set,主要是在遍歷操作為主的情況下來代替同步的List和同步的Set,這也就是上面所述的思路:迭代過程要保證不出錯,除了加鎖,另外一種方法就是“克隆”容器對象。
ConcurrentLinkedQueue是一個先進(jìn)先出的隊(duì)列,它是非阻塞隊(duì)列。
ConcurrentSkipListMap可以在高效并發(fā)中替代SoredMap(例如用Collections.synchronizedMap包裝的TreeMap)。
ConcurrentSkipListSet可以在高效并發(fā)中替代SoredSet(例如用Collections.synchronizedSet包裝的TreeSet)。
大家都知道HashMap是非線程安全的,Hashtable是線程安全的,但是由于Hashtable是采用synchronized進(jìn)行同步,相當(dāng)于所有線程進(jìn)行讀寫時都去競爭一把鎖,導(dǎo)致效率非常低下。
ConcurrentHashMap可以做到讀取數(shù)據(jù)不加鎖,并且其內(nèi)部的結(jié)構(gòu)可以讓其在進(jìn)行寫操作的時候能夠?qū)㈡i的粒度保持得盡量的小,不用對整個ConcurrentHashMap加鎖。
ConcurrentHashMap的內(nèi)部結(jié)構(gòu)
ConcurrentHashMap為了提高本身的并發(fā)能力,在內(nèi)部采用了一個叫做Segment的結(jié)構(gòu),一個Segment其實(shí)就是一個類哈希表的結(jié)構(gòu),Segment內(nèi)部維護(hù)了一個鏈表數(shù)組,我們用下面這一幅圖來看下ConcurrentHashMap的內(nèi)部結(jié)構(gòu):
從上面的結(jié)構(gòu)可以了解到,ConcurrentHashMap定位一個元素的過程需要進(jìn)行兩次Hash操作,第一次Hash定位到Segment,第二次Hash定位到元素所在的鏈表的頭部,因此這一種結(jié)構(gòu)帶來的副作用是Hash的過程要比普通的HashMap要長,但是帶來的好處是寫操作的時候可以只對元素所在的Segment進(jìn)行加鎖即可,不會影響到其它的Segment,這樣,在最理想的情況下,ConcurrentHashMap可以最高同時支持Segment數(shù)量大小的寫操作(剛好這些寫操作都非常平均地分布在所有的Segment上),所以,通過這一種結(jié)構(gòu),ConcurrentHashMap的并發(fā)能力可以大大的提高。
?
Segment
我們再來具體了解一下Segment的數(shù)據(jù)結(jié)構(gòu):
1 static final class Segment<K,V> extends ReentrantLock implements Serializable { 2 transient volatile int count; 3 transient int modCount; 4 transient int threshold; 5 transient volatile HashEntry<K,V>[] table; 6 final float loadFactor; 7 }詳細(xì)解釋一下segment里面的成員變量的意義:
- count:Segment中元素的數(shù)量,它是volatile,用來協(xié)調(diào)修改和讀取操作,以保證讀取操作能夠讀取到幾乎最新的修改。協(xié)調(diào)方式是這樣的,每次修改操作做了結(jié)構(gòu)上的改變,如增加/刪除節(jié)點(diǎn)(修改節(jié)點(diǎn)的值不算結(jié)構(gòu)上的改變),都要寫count值,每次讀取操作開始都要讀取count值。這利用了Java 5中對volatile語義的增強(qiáng),對同一個volatile變量的寫和讀存在happens-before關(guān)系(對一個volatile域的寫,happens-before于任意后續(xù)對這個volatile域的讀,即寫操作的執(zhí)行結(jié)果,對讀操作可見)。
- modCount:統(tǒng)計(jì)段結(jié)構(gòu)改變的次數(shù),主要是為了檢測對多個段進(jìn)行遍歷過程中某個段是否發(fā)生改變,在講述跨段操作時還會講述。
- threshold:用來表示需要進(jìn)行rehash的界限值,超過該閾值,則對Segment中數(shù)組的大小進(jìn)行擴(kuò)容。
- table:table也是volatile,這使得能夠讀取到最新的table值而不需要同步。
- loadFactor:表示負(fù)載因子,用于確定threshold。
HashEntry
Segment中的元素是以HashEntry的形式存放在鏈表數(shù)組中的,看一下HashEntry的結(jié)構(gòu):
1 static final class HashEntry<K,V> { 2 final K key; 3 final int hash; 4 volatile V value; 5 final HashEntry<K,V> next; 6 }可以看到HashEntry的一個特點(diǎn),除了value以外,其它的幾個變量都是final的,這意味著不能從hash鏈的中間或尾部添加或刪除節(jié)點(diǎn),因?yàn)檫@需要修改next引用值,所有的節(jié)點(diǎn)的修改只能從頭部開始。對于put操作,可以一律添加到HashEntry鏈的頭部(next為final型,它的唯一一次賦值可以發(fā)生在構(gòu)造方法中,即可以使用new HashEntry(...),在構(gòu)造方法HashEntry(...)中放入key,hash,value,并將next賦值為原HashEntry鏈的頭部。PS:太巧妙了TAT)。但是對于remove操作,可能需要從中間刪除一個節(jié)點(diǎn),這就需要將要刪除的節(jié)點(diǎn)的前面所有節(jié)點(diǎn)整個復(fù)制一遍(使用new HashEntry(...)在構(gòu)造方法中將傳入待復(fù)制的節(jié)點(diǎn)的key,hash,value,然后將next指向新節(jié)點(diǎn)),最后一個節(jié)點(diǎn)指向要刪除節(jié)點(diǎn)的下一個節(jié)點(diǎn)。將value設(shè)置成volatile,這避免了加鎖。
?
ConcurrentHashMap的初始化
下面結(jié)合源代碼來具體分析一下ConcurrentHashMap的實(shí)現(xiàn),先看下初始化方法:
1 public ConcurrentHashMap(int initialCapacity, 2 float loadFactor, int concurrencyLevel) { 3 if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0) 4 throw new IllegalArgumentException(); 5 6 if (concurrencyLevel > MAX_SEGMENTS) 7 concurrencyLevel = MAX_SEGMENTS; 8 9 // Find power-of-two sizes best matching arguments 10 int sshift = 0; 11 int ssize = 1; 12 // 保證ssize一定為2的指數(shù)個 13 // 如concurrencyLevel為11,12,13,14,15,16時,ssize都為16 14 while (ssize < concurrencyLevel) { 15 ++sshift; // 記錄ssize左移的次數(shù) 16 ssize <<= 1; 17 } 18 // 這兩個全局變量在定位segment時的哈希算法里需要使用 19 segmentShift = 32 - sshift; // 之所以用32是因?yàn)镃oncurrentHashMap里的hash()方法輸出的最大數(shù)是32位的 20 segmentMask = ssize - 1; // 為哈希運(yùn)算的掩碼,等于ssize,保證其二進(jìn)制位都是1 21 this.segments = Segment.newArray(ssize); 22 23 if (initialCapacity > MAXIMUM_CAPACITY) 24 initialCapacity = MAXIMUM_CAPACITY; 25 int c = initialCapacity / ssize; // c為ssize的倍數(shù) 26 if (c * ssize < initialCapacity) 27 ++c; 28 int cap = 1; 29 while (cap < c) // 如果c大于1,就會取大于等于c的2的N次方值,所以cap不是1,就是2的N次方 30 cap <<= 1; 31 32 for (int i = 0; i < this.segments.length; ++i) 33 this.segments[i] = new Segment<K,V>(cap, loadFactor); // segment的容量threshold = (int)cap*loadFactorConcurrentHashMap的初始化一共三個參數(shù),一個initialCapacity,表示初始的容量,一個loadFactor,表示負(fù)載參數(shù),最后一個是concurrentLevel,代表ConcurrentHashMap內(nèi)部的Segment的數(shù)量,concurrentLevel一經(jīng)指定,不可改變,后續(xù)如果ConcurrentHashMap的元素?cái)?shù)量增加導(dǎo)致ConcurrentHashMap需要擴(kuò)容,ConcurrentHashMap不會增加Segment的數(shù)量,而只會增加Segment中鏈表數(shù)組的容量大小,這樣的好處是擴(kuò)容過程不需要對整個ConcurrentHashMap做rehash,而只需要對Segment里面的元素做一次rehash就可以了。
整個ConcurrentHashMap的初始化方法還是非常簡單的,先是根據(jù)concurrentLevel來new出Segment,這里Segment的數(shù)量是不大于concurrentLevel的最大的2的指數(shù)(while(ssize < concurrentLevel) {ssize <<= 1}),就是說Segment的數(shù)量永遠(yuǎn)是2的指數(shù)個,這樣的好處是方便采用移位操作來進(jìn)行hash,加快hash的過程。接下來就是根據(jù)initialCapacity確定Segment的容量大小,每一個Segment的容量大小也是2的指數(shù),同樣是為了加快hash的過程。
這邊需要特別注意兩個變量:segmentShift和segmentMask,這兩個變量在后面將會起很大的作用,假設(shè)構(gòu)造函數(shù)確定了segment的數(shù)量是2的n次方,那么segmentShift就等于32減去n,而segmentMask就等于2的n次方減一。
?
ConcurrentHashMap的get操作
前面提到過ConcurrentHashMap的get操作是不用加鎖的,我們這里看一下其實(shí)現(xiàn):
1 public V get(Object key) { 2 int hash = hash(key.hashCode()); 3 return segmentFor(hash).get(key, hash); 4 }看第三行,segmentFor這個函數(shù)用來確定操作應(yīng)該在哪一個segment中進(jìn)行,幾乎對ConcurrentHashMap的所有操作都需要用到這個函數(shù),我們來看下這個函數(shù)的實(shí)現(xiàn):
1 final Segment<K,V> segmentFor(int hash) { 2 return segments[(hash >>> segmentShift) & segmentMask]; 3 }這個函數(shù)用了位操作來確定Segment,根據(jù)傳入的hash值向右無符號右移segmentShift位,然后和segmentMask進(jìn)行與操作,綜合我們之前說的segmentShift和segmentMask的值,就可以得出如下結(jié)論:假設(shè)Segment的數(shù)量是2的n次方,根據(jù)元素的hash值的高n位就可以確定元素到底在哪一個Segment中。
在確定了需要在哪一個segment中進(jìn)行操作后,接下來的事情就是調(diào)用對應(yīng)的segment的get方法:
1 V get(Object key, int hash) { 2 if (count != 0) { // read-volatile 3 HashEntry<K,V> e = getFirst(hash); 4 while (e != null) { 5 if (e.hash == hash && key.equals(e.key)) { 6 V v = e.value; 7 if (v != null) 8 return v; 9 return readValueUnderLock(e); // recheck 10 } 11 e = e.next; 12 } 13 } 14 return null; 15 }先看第二行代碼,這里對count進(jìn)行了一次判斷,其中count表示該Segment中包含的元素的數(shù)量,我們可以來看一下count的定義:
transient volatile int count;可以看到count是volatile的,實(shí)際上這里面利用了volatile的語義:
“對volatile字段的寫入操作happens-before于每一個后續(xù)的同一個字段的讀操作。”
因?yàn)閷?shí)際上put、remove等操作也會更新count的值,所以當(dāng)競爭發(fā)生的時候,volatile的語義可以保證寫操作在讀操作之前,可就保證了寫操作對后續(xù)的讀操作都是可見的。
通過這種機(jī)制來保證get操作能夠得到幾乎最新的結(jié)構(gòu)更新。對于非結(jié)構(gòu)更新(也就是結(jié)點(diǎn)值的改變),由于HashEntry的value變量是volatile的,也能保證讀取到“最新”的值。接下來就是對hash鏈進(jìn)行遍歷找到要獲取的節(jié)點(diǎn),如果沒有找到,直接返回null。對hash鏈進(jìn)行遍歷不需要加鎖的原因在于鏈指針next是final的,但是頭指針卻不是final的,頭指針是通過getFirst(hash)方法返回的:
1 HashEntry<K,V> getFirst(int hash) { 2 HashEntry<K,V>[] tab = table; 3 return tab[hash & (tab.length - 1)]; 4 }也就是存在table數(shù)組中的值。這使得getFirst(hash)可能返回過時的頭節(jié)點(diǎn)。例如,當(dāng)執(zhí)行g(shù)et方法時,剛執(zhí)行完getFirst(hash)之后,另一個線程執(zhí)行了刪除操作并更新頭結(jié)點(diǎn),這就導(dǎo)致get方法中返回的頭結(jié)點(diǎn)不是最新的。這是可以允許的,通過對count變量的協(xié)調(diào)機(jī)制,get能讀取到幾乎最新的數(shù)據(jù),雖然可能不是最新的。要得到最新的數(shù)據(jù),只有采用完全的同步。
最后,如果找到了所求的節(jié)點(diǎn),判斷它的值如果非空就直接返回,否則在有鎖的狀態(tài)下再讀一次。這似乎有些費(fèi)解,理論上節(jié)點(diǎn)的值不可能為空,這是因?yàn)閜ut的時候就進(jìn)行了判斷,如果為空就拋出NullPointerException??罩档奈ㄒ辉搭^就是HashEntry中的默認(rèn)值,因?yàn)镠ashEntry中的value不是final的,非同步讀取有可能讀取到空值。仔細(xì)看下put操作的語句:tab[index] = new HashEntry<K,V>(key,hash,first,value),在這條語句中,HashEntry構(gòu)造函數(shù)中對value的賦值以及對tab[index]的賦值可能被重新排序,這就可能導(dǎo)致結(jié)點(diǎn)的值為空(HashEntry對象構(gòu)造好了,但對value的賦值還未完成,此時取到其默認(rèn)值空)。這種情況應(yīng)當(dāng)很罕見,一旦發(fā)生這種情況,ConcurrentHashMap采取的方式是在持有鎖的情況下再讀一遍,這能夠保證讀到最新的值,并且一定不會為空值。
1 V readValueUnderLock(HashEntry<K,V> e) { 2 lock(); 3 try { 4 return e.value; 5 } finally { 6 unlock(); 7 } 8 }
ConcurrentHashMap的put操作
看完了get操作,再看下put操作,put操作的前面也是確定Segment的過程,這里不再贅述,直接看關(guān)鍵的segment的put方法:
1 V put(K key, int hash, V value, boolean onlyIfAbsent) { 2 lock(); 3 try { 4 int c = count; 5 if (c++ > threshold) // ensure capacity 6 rehash(); 7 HashEntry<K,V>[] tab = table; 8 int index = hash & (tab.length - 1); 9 HashEntry<K,V> first = tab[index]; 10 HashEntry<K,V> e = first; 11 while (e != null && (e.hash != hash || !key.equals(e.key))) 12 e = e.next; 13 14 V oldValue; 15 if (e != null) { 16 oldValue = e.value; 17 if (!onlyIfAbsent) 18 e.value = value; 19 } 20 else { 21 oldValue = null; 22 ++modCount; 23 tab[index] = new HashEntry<K,V>(key, hash, first, value); 24 count = c; // write-volatile 25 } 26 return oldValue; 27 } finally { 28 unlock(); 29 } 30 }該方法是在持有段鎖的情況下執(zhí)行的,在第五行,如果Segment中元素的數(shù)量超過了閾值(由構(gòu)造函數(shù)中的loadFactor算出)就需要對segment進(jìn)行擴(kuò)容,并且要進(jìn)行rehash,關(guān)于rehash的過程大家可以自己去了解,這里不詳細(xì)講了。
第8行和第9行的操作就是getFirst的過程,確定鏈表頭部的位置。
第11行這里的這個while循環(huán)是在鏈表中尋找和要put的元素相同key的元素,如果找到,就直接更新key的value,如果沒有找到,則進(jìn)入21行這里,生成一個新的HashEntry并且把它加到整個segment的頭部,然后再更新count值。
?
ConcurrentHashMap的remove操作
remove操作的前面一部分和前面的get、put操作一樣,都是定位segment的過程,然后再調(diào)用segment的remove方法:
1 V remove(Object key, int hash, Object value) { 2 lock(); 3 try { 4 int c = count - 1; 5 HashEntry<K,V>[] tab = table; 6 int index = hash & (tab.length - 1); 7 HashEntry<K,V> first = tab[index]; 8 HashEntry<K,V> e = first; 9 while (e != null && (e.hash != hash || !key.equals(e.key))) 10 e = e.next; 11 12 V oldValue = null; 13 if (e != null) { 14 V v = e.value; 15 if (value == null || value.equals(v)) { 16 oldValue = v; 17 // All entries following removed node can stay 18 // in list, but all preceding ones need to be 19 // cloned. 20 ++modCount; 21 HashEntry<K,V> newFirst = e.next; 22 for (HashEntry<K,V> p = first; p != e; p = p.next) 23 newFirst = new HashEntry<K,V>(p.key, p.hash, 24 newFirst, p.value); 25 tab[index] = newFirst; 26 count = c; // write-volatile 27 } 28 } 29 return oldValue; 30 } finally { 31 unlock(); 32 } 33 }整個操作是在持有段鎖的情況下執(zhí)行的,空白行之前的行主要是定位到要刪除的節(jié)點(diǎn)e。接下來,如果不存在這個節(jié)點(diǎn)就直接返回null,否則就要將e前面的節(jié)點(diǎn)復(fù)制一遍,尾節(jié)點(diǎn)指向e的下一個節(jié)點(diǎn)。e后面的節(jié)點(diǎn)不需要復(fù)制,它們可以重用。(之前說過HashEntry中的next是final的,一經(jīng)賦值以后就不可修改,所以只能通過復(fù)制來達(dá)成目的)如下圖所示:
?
?
? 注意,復(fù)制的節(jié)點(diǎn)中,值為2的節(jié)點(diǎn)在前面,值為1的節(jié)點(diǎn)在后面,也就是剛好和原來節(jié)點(diǎn)順序相反。
整個remobe實(shí)現(xiàn)并不復(fù)雜,但是需要注意如下幾點(diǎn):第一,當(dāng)要刪除的節(jié)點(diǎn)存在時,刪除的最后一步操作要將count的值減一。這必須是最后一步操作,否則讀取操作可能看不到之前對段所做的結(jié)構(gòu)性修改。第二,remove執(zhí)行的開始就將table賦值給一個局部變量tab,這是因?yàn)閠able是volatile變量,讀寫volatile變量的開銷很大。編譯器也不能對volatile變量的讀寫做任何優(yōu)化,直接多次訪問非volatile實(shí)例變量沒有多大影響,編譯器會做相應(yīng)優(yōu)化。
?
跨段操作
有些操作需要涉及到多個段,比如說size(),containsValue()。先來看下size()方法:
1 public int size() { 2 final Segment<K,V>[] segments = this.segments; 3 long sum = 0; 4 long check = 0; 5 int[] mc = new int[segments.length]; 6 // Try a few times to get accurate count. On failure due to 7 // continuous async changes in table, resort to locking. 8 for (int k = 0; k < RETRIES_BEFORE_LOCK; ++k) { 9 check = 0; 10 sum = 0; 11 int mcsum = 0; 12 for (int i = 0; i < segments.length; ++i) { 13 sum += segments[i].count; 14 mcsum += mc[i] = segments[i].modCount; 15 } 16 if (mcsum != 0) { 17 for (int i = 0; i < segments.length; ++i) { 18 check += segments[i].count; 19 if (mc[i] != segments[i].modCount) { 20 check = -1; // force retry 21 break; 22 } 23 } 24 } 25 if (check == sum) 26 break; 27 } 28 if (check != sum) { // Resort to locking all segments 29 sum = 0; 30 for (int i = 0; i < segments.length; ++i) 31 segments[i].lock(); 32 for (int i = 0; i < segments.length; ++i) 33 sum += segments[i].count; 34 for (int i = 0; i < segments.length; ++i) 35 segments[i].unlock(); 36 } 37 if (sum > Integer.MAX_VALUE) 38 return Integer.MAX_VALUE; 39 else 40 return (int)sum; 41 }size方法主要思路是先在沒有鎖的情況下對所有段大小求和,如果不能成功(這是因?yàn)楸闅v過程中可能有其它線程正在對已經(jīng)遍歷過的段進(jìn)行結(jié)構(gòu)性更新),最多執(zhí)行RETRIES_BEFORE_LOCK次,如果還不成功就在持有所有段鎖的情況下再對所有段大小求和。在沒有鎖的情況下主要是利用Segment中的modCount進(jìn)行檢測,在遍歷過程中保存每個Segment的modCount,遍歷完成之后再檢測每個Segment的modCount有沒有改變,如果有改變表示有其它線程正在對Segment進(jìn)行結(jié)構(gòu)性并發(fā)更新,需要重新計(jì)算。
size()的實(shí)現(xiàn)還有一點(diǎn)需要注意,必須要先segments[i].count,才能segments[i].modCount,這是因?yàn)閟egment[i].count是對volatile變量的訪問,接下來segments[i].modCount才能得到幾乎最新的值(前面我已經(jīng)說了為什么只是“幾乎”了)。這點(diǎn)在containsValue方法中得到了淋漓盡致的展現(xiàn):
1 public boolean containsValue(Object value) { 2 if (value == null) 3 throw new NullPointerException(); 4 5 // See explanation of modCount use above 6 7 final Segment<K,V>[] segments = this.segments; 8 int[] mc = new int[segments.length]; 9 10 // Try a few times without locking 11 for (int k = 0; k < RETRIES_BEFORE_LOCK; ++k) { 12 int sum = 0; 13 int mcsum = 0; 14 for (int i = 0; i < segments.length; ++i) { 15 int c = segments[i].count; 16 mcsum += mc[i] = segments[i].modCount; 17 if (segments[i].containsValue(value)) 18 return true; 19 } 20 boolean cleanSweep = true; 21 if (mcsum != 0) { 22 for (int i = 0; i < segments.length; ++i) { 23 int c = segments[i].count; 24 if (mc[i] != segments[i].modCount) { 25 cleanSweep = false; 26 break; 27 } 28 } 29 } 30 if (cleanSweep) 31 return false; 32 } 33 // Resort to locking all segments 34 for (int i = 0; i < segments.length; ++i) 35 segments[i].lock(); 36 boolean found = false; 37 try { 38 for (int i = 0; i < segments.length; ++i) { 39 if (segments[i].containsValue(value)) { 40 found = true; 41 break; 42 } 43 } 44 } finally { 45 for (int i = 0; i < segments.length; ++i) 46 segments[i].unlock(); 47 } 48 return found; 49 }注意內(nèi)層的第一個for循環(huán),里面有語句int c = segments[i].count;但是c卻從來沒有被使用過,即時如此,編譯器也不能做優(yōu)化將這條語句去掉,因?yàn)榇嬖趯olatile變量count的讀取,這條語句存在的唯一目的就是保證segments[i].modCount讀取到幾乎最新的值。
?
解釋“必須要先segments[i].count,才能segments[i].modCount,這是因?yàn)閟egment[i].count是對volatile變量的訪問,接下來segments[i].modCount才能得到幾乎最新的值”
寫volatile變量和它之前的讀寫操作是不能重排序reorder的,讀volatile變量和它之后的讀寫操作也是不能reorder的。
在此程序中,表現(xiàn)為修改modCount發(fā)生在修改count之前(查看源代碼會發(fā)現(xiàn)在寫count之前必定有寫modCount),由于count是volatile變量,修改modCount不能和寫count的操作reorder,讀取count和它之后的操作,比如讀取modCount,不能reorder。有了這兩個“不能reorder”才能保證讀取了count之后,能讀到線程在寫count之前寫入的modCount值,這個modCount值是幾乎最新的。如果在讀modCount之前不讀count,讀modCount甚至可能會reorder到寫modCount之前。如果寫modCount放在寫count之后,則寫modCount可能會被reorder到讀modCount之后。即讀寫順序需要相互配合,才能保證讀取到的modCount幾乎是最新的。
最后簡單地介紹下迭代方法,如keySet(),values(),entrySet()方法,這些方法都返回相應(yīng)的迭代器,所有迭代器都繼承于HashIterator類里實(shí)現(xiàn)的主要的方法。其結(jié)構(gòu)是:
1 abstract class HashIterator { 2 int nextSegmentIndex; 3 int nextTableIndex; 4 HashEntry<K,V>[] currentTable; 5 HashEntry<K, V> nextEntry; 6 HashEntry<K, V> lastReturned; 7 }nextSegmentIndex是段的索引,nextTableIndex是nextSegmentIndex對應(yīng)段中hash鏈的索引,currentTable是nextSegmentIndex對應(yīng)段的table。調(diào)用next方法時主要是調(diào)用了advance()方法:
1 final void advance() { 2 if (nextEntry != null && (nextEntry = nextEntry.next) != null) 3 return; 4 5 while (nextTableIndex >= 0) { 6 if ( (nextEntry = currentTable[nextTableIndex--]) != null) 7 return; 8 } 9 10 while (nextSegmentIndex >= 0) { 11 Segment<K,V> seg = segments[nextSegmentIndex--]; 12 if (seg.count != 0) { 13 currentTable = seg.table; 14 for (int j = currentTable.length - 1; j >= 0; --j) { 15 if ( (nextEntry = currentTable[j]) != null) { 16 nextTableIndex = j - 1; 17 return; 18 } 19 } 20 } 21 } 22 }不想再多介紹了,唯一需要注意的是跳到下一個段時,一定要先讀取下一個段的count變量。
這種迭代方式的主要效果是不會拋出ConcurrentModificationException。一旦獲取到下一個段的table,也就意味著這個段的頭結(jié)點(diǎn)在迭代過程中就確定了,在迭代過程中就不能反映對這個段節(jié)點(diǎn)并發(fā)的刪除和添加,對于節(jié)點(diǎn)的更新是能夠反映的,因?yàn)楣?jié)點(diǎn)的值是一個volatile變量。
?
參考文章:《Java并發(fā)編程:并發(fā)容器之oncurrentHashMap》
《ConcurrentHashMap之實(shí)現(xiàn)細(xì)節(jié)》
?
?
?
補(bǔ)充:為什么Hashtable和ConcurrentHashMap不支持key或者value為null?
在很多java資料中,都有提到ConcurrentHashMap、HashMap和Hashtable都是key-value存儲結(jié)構(gòu),但他們有一個不同點(diǎn)是ConcurrentHashMap、Hashtable不支持key或者value為null,而HashMap是支持的。為什么會有這個區(qū)別?在設(shè)計(jì)上的目的是什么?
在網(wǎng)上找到了這樣的解答:
The main reason that nulls aren’t allowed in ConcurrentMaps (ConcurrentHashMaps, ConcurrentSkipListMaps) is that ambiguities that may be just barely tolerable in non-concurrent maps can’t be accommodated. The main one is that if map.get(key) returns null, you can’t detect whether the key explicitly maps to null vs the key isn’t mapped. In a non-concurrent map, you can check this via map.contains(key), but in a concurrent one, the map might have changed between calls.
?
理解如下:ConcurrentHashMap和Hashtable都是支持并發(fā)的,這樣會有一個問題,當(dāng)你通過get(key)獲取對應(yīng)的value時,如果獲取到的是null時,你無法判斷,它是put(k,v)的時候value為null,還是這個key從來就沒有做過映射。HashMap是非并發(fā)的,可以通過map.contains(key)來做這個判斷,而支持并發(fā)的Map在調(diào)用map.contains(key)和map.get(key)間的時間窗口內(nèi),map可能已經(jīng)更改。
比如下面這個例子:
線程1在if判斷正確之后,轉(zhuǎn)到線程2,這時線程2把key給刪了,然后再轉(zhuǎn)到線程1,執(zhí)行return m.get(k),get后返回null,這個null不能判定是本身value為null,還是說沒有key導(dǎo)致的。
總結(jié)
以上是生活随笔為你收集整理的【转】Java并发编程:并发容器之ConcurrentHashMap的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: qgmt数据,就差白城后面的一个城市有点
- 下一篇: Java中生产者和消费者总结