­

高並發下的Java數據結構(List、Set、Map、Queue)

  • 2019 年 10 月 6 日
  • 筆記

由於並行程式與串列程式的不同特點,適用於串列程式的一些數據結構可能無法直接在並發環境下正常工作,這是因為這些數據結構不是執行緒安全的。本節將著重介紹一些可以用於多執行緒環境的數據結構,如並發List、並發Set、並發Map等。

1.並發List

Vector 或者 CopyOnWriteArrayList 是兩個執行緒安全的List實現,ArrayList 不是執行緒安全的。因此,應該盡量避免在多執行緒環境中使用ArrayList。如果因為某些原因必須使用的,則需要使用Collections.synchronizedList(List list)進行包裝。

示例程式碼:

List list = Collections.synchronizedList(new ArrayList());      ...  synchronized (list) {      Iterator i = list.iterator(); // 必須在同步塊中      while (i.hasNext())          foo(i.next());  }  

遍歷的操作需要自己加鎖,而add之類的方法則不需要,自己看一下源碼就理解了

CopyOnWriteArrayList 的內部實現與Vector又有所不同。顧名思義,Copy-On-Write 就是 CopyOnWriteArrayList 的實現機制。即當對象進行寫操作時,複製該對象;若進行的讀操作,則直接返回結果,操作過程中不需要進行同步。

CopyOnWriteArrayList 很好地利用了對象的不變性,在沒有對對象進行寫操作前,由於對象未發生改變,因此不需要加鎖。而在試圖改變對象時,總是先獲取對象的一個副本,然後對副本進行修改,最後將副本寫回。

這種實現方式的核心思想是減少鎖競爭,從而提高在高並發時的讀取性能,但是它卻在一定程度上犧牲了寫的性能。

在 get() 操作上,Vector 使用了同步關鍵字,所有的 get() 操作都必須先取得對象鎖才能進行。在高並發的情況下,大量的鎖競爭會拖累系統性能。反觀CopyOnWriteArrayList 的get() 實現,並沒有任何的鎖操作。

在 add() 操作上,CopyOnWriteArrayList 的寫操作性能不如Vector,原因也在於Copy-On-Write。

在讀多寫少的高並發環境中,使用 CopyOnWriteArrayList 可以提高系統的性能,但是,在寫多讀少的場合,CopyOnWriteArrayList 的性能可能不如 Vector。

Copy-On-Write源碼分析

通過查看CopyOnWriteArrayList類的源碼可知,在add操作上,是使用了Lock鎖做了同步處理,內部拷貝了原數組,並在新數組上進行添加操作,最後將新數組替換掉舊數組。

public boolean add(E e) {      final ReentrantLock lock = this.lock;      lock.lock();      try {          Object[] elements = getArray();          int len = elements.length;          Object[] newElements = Arrays.copyOf(elements, len + 1);          newElements[len] = e;          setArray(newElements);          return true;      } finally {          lock.unlock();      }  }  

CopyOnWriteArrayList的get(int index)方法是沒有任何鎖處理的,直接返回數組對象。

public E get(int index) {      return get(getArray(), index);  }    final Object[] getArray() {      return array;  }  

那麼Copy-On-Write的優缺點有哪些呢?

最明顯的就是這是CopyOnWriteArrayList屬於執行緒安全的,並發的讀是沒有異常的,讀寫操作被分離。缺點就是在寫入時不止加鎖,還使用了Arrays.copyOf()進行了數組複製,性能開銷較大,遇到大對象也會導致記憶體佔用較大。

2.並發Set

和List相似,並發Set也有一個 CopyOnWriteArraySet ,它實現了 Set 介面,並且是執行緒安全的。它的內部實現完全依賴於 CopyOnWriteArrayList ,因此,它的特性和 CopyOnWriteArrayList 完全一致,適用於 讀多寫少的高並發場合,在需要並發寫的場合,則可以使用 Set s = Collections.synchronizedSet(Set<T> s)得到一個執行緒安全的Set。

示例程式碼:

Set s = Collections.synchronizedSet(new HashSet());      ...  synchronized (s) {      Iterator i = s.iterator(); // 必須在同步塊中      while (i.hasNext())          foo(i.next());  }  

3.並發Map

在多執行緒環境下使用Map,一般也可以使用 Collections.synchronizedMap()方法得到一個執行緒安全的 Map(詳見示例程式碼1)。但是在高並發的情況下,這個Map的性能表現不是最優的。由於 Map 是使用相當頻繁的一個數據結構,因此 JDK 中便提供了一個專用於高並發的 Map 實現 ConcurrentHashMap。

Collections的示例程式碼1:

Map m = Collections.synchronizedMap(new HashMap());      ...  Set s = m.keySet();  // 不需要同步塊      ...  synchronized (m) {  // 同步在m上,而不是s上!!      Iterator i = s.iterator(); // 必須在同步塊中      while (i.hasNext())          foo(i.next());  }  

1.為什麼不能在高並發下使用HashMap?

因為多執行緒環境下,使用Hashmap進行put操作會引起死循環,導致CPU利用率接近100%,所以在並發情況下不能使用HashMap。

2.為什麼不使用執行緒安全的HashTable?

HashTable容器使用synchronized來保證執行緒安全,但在執行緒競爭激烈的情況下HashTable的效率非常低下。因為當一個執行緒訪問HashTable的同步方法時,其他執行緒訪問HashTable的同步方法時,可能會進入阻塞或輪詢狀態。如執行緒1使用put進行添加元素,執行緒2不但不能使用put方法添加元素,並且也不能使用get方法來獲取元素,所以競爭越激烈效率越低。

3.ConcurrentHashMap的優勢

ConcurrentHashMap的內部實現進行了鎖分離(或鎖分段),所以它的鎖粒度小於同步的 HashMap;同時,ConcurrentHashMap的 get() 操作也是無鎖的。除非讀到的值是空的才會加鎖重讀,我們知道HashTable容器的get方法是需要加鎖的,那麼ConcurrentHashMap的get操作是如何做到不加鎖的呢?原因是它的get方法里將要使用的共享變數都定義成volatile。

鎖分離:首先將數據分成一段一段的存儲,然後給每一段數據配一把鎖,當一個執行緒佔用鎖訪問其中一個段數據的時候,其他段的數據也能被其他執行緒訪問。有些方法需要跨段,比如size()和containsValue(),它們可能需要鎖定整個表而而不僅僅是某個段,這需要按順序鎖定所有段,操作完畢後,又按順序釋放所有段的鎖。

上述部分文字參考文章:https://www.cnblogs.com/ITtangtang/p/3948786.html

4.並發Queue

在並發隊列上,JDK提供了兩套實現,一個是以 ConcurrentLinkedQueue 為代表的高性能隊列,一個是以 BlockingQueue 介面為代表的阻塞隊列。不論哪種實現,都繼承自 Queue 介面。

ConcurrentLinkedQueue 是一個適用於高並發場景下的隊列。它通過無鎖的方式,實現了高並髮狀態下的高性能。通常,ConcurrentLinkedQueue 的性能要好於 BlockingQueue 。

與 ConcurrentLinkedQueue 的使用場景不同,BlockingQueue 的主要功能並不是在於提升高並發時的隊列性能,而在於簡化多執行緒間的數據共享。

BlockingQueue 典型的使用場景是生產者-消費者模式,生產者總是將產品放入 BlockingQueue 隊列,而消費者從隊列中取出產品消費,從而實現數據共享。

BlockingQueue 提供一種讀寫阻塞等待的機制,即如果消費者速度較快,則 BlockingQueue 則可能被清空,此時消費執行緒再試圖從 BlockingQueue 讀取數據時就會被阻塞。反之,如果生產執行緒較快,則 BlockingQueue 可能會被裝滿,此時,生產執行緒再試圖向 BlockingQueue 隊列裝入數據時,便會被阻塞等待,其工作模式如圖所示。

5.並發Deque

在JDK1.6中,還提供了一種雙端隊列(Double-Ended Queue),簡稱Deque。Deque允許在隊列的頭部或尾部進行出隊和入隊操作。與Queue相比,具有更加複雜的功能。

Deque 介面的實現類:LinkedList、ArrayDeque和LinkedBlockingDeque。

它們都實現了雙端隊列Deque介面。其中LinkedList使用鏈表實現了雙端隊列,ArrayDeque使用數組實現雙端隊列。通常情況下,由於ArrayDeque基於數組實現,擁有高效的隨機訪問性能,因此ArrayDeque具有更好的遍性能。但是當隊列的大小發生變化較大時,ArrayDeque需要重新分配記憶體,並進行數組複製,在這種環境下,基於鏈表的 LinkedList 沒有記憶體調整和數組複製的負擔,性能表現會比較好。但無論是LinkedList或是ArrayDeque,它們都不是執行緒安全的。

LinkedBlockingDeque 是一個執行緒安全的雙端隊列實現。可以說,它已經是最為複雜的一個隊列實現。在內部實現中,LinkedBlockingDeque 使用鏈表結構。每一個隊列節點都維護了一個前驅節點和一個後驅節點。LinkedBlockingDeque 沒有進行讀寫鎖的分離,因此同一時間只能有一個執行緒對其進行操作。因此,在高並發應用中,它的性能表現要遠遠低於 LinkedBlockingQueue,更要低於 ConcurrentLinkedQueue 。