大型網站架構模式核心原理與案例分析
- 2019 年 10 月 8 日
- 筆記
每一個模式描述了一個在我們周圍不斷發生的問題及該問題解決方案的核心。這樣,你就能一次又一次地使用該方案而不必做重複的工作。– 什麼是模式?
也許互聯網產品不是隨便複製就能成功的,創新的產品更能為用戶創造價值。但是網站架構卻有一些共同的模式,這些模式已經被許多大型網站一再驗證,通過對這些模式的學習,我們可以掌握大型網站架構的一般思路和解決方案,以指導我們的架構設計。
1.網站架構模式
為了解決大型網站面臨的高並發訪問、海量數據處理、高可靠運行等一系列問題與挑戰,大型互聯網公司在實踐中提出了許多解決方案,以實現網站高性能、高可用、易伸縮、可擴展、安全等各種技術架構目標。這些解決方案又被更多網站重複使用,從而逐漸形成大型網站架構模式。
1.1 分層
分層是企業應用系統中最常見的一種架構模式,將系統在橫向維度上切分成幾個部分,每個部分負責一部分相對比較單一的職責,然後通過上層對下層的依賴和調用組成個完整的系統。
分層結構在電腦世界中無處不在,網路的7層通訊協議是一種分層結構;電腦硬體、作業系統、應用軟體也可以看作是一種分層結構。在大型網站架構中也採用分層結構,將網站軟體系統分為應用層、服務層、數據層,如下所示。
應用層 | 負責具體業務和視圖展示,如網站首頁及搜索輸入和結果展示 |
---|---|
服務層 | 為應用層提供服務支援,如用戶管理服務,購物車服務等 |
數據層 | 提供數據存儲訪問服務,如資料庫、快取、文件、搜索引擎等 |
通過分層,可以更好地將一個龐大的軟體系統切分成不同的部分,便於分工合作開發和維護;各層之間具有一定的獨立性,只要維持調用介面不變,各層可以根據具體問題獨立演化發展而不需要其他層必須做出相應調整。
但是分層架構也有一些挑戰,就是必須合理規劃層次邊界和介面,在開發過程中嚴格遵循分層架構的約束,禁止跨層次的調用(應用層直接調用數據層)及逆向調用(數據層調用服務層,或者服務層調用應用層)在實踐中,大的分層結構內部還可以繼續分層,如應用層可以再細分為視圖層(美工負責)和業務邏輯層(工程師負責);服務層也可以細分為數據介面層(適配各種輸入和輸出的數據格式)和邏輯處理層。
分層架構是邏輯上的,在物理部署上,三層結構可以部署在同一個物理機器上,但是隨著網站業務的發展,必然需要對已經分層的模組分離部署,即三層結構分別部署在不同的伺服器上,使網站擁有更多的計算資源以應對越來越多的用戶訪問。所以雖然分層架構模式最初的目的是規劃軟體清晰的邏輯結構便於開發維護,但在網站的發展過程中,分層結構對網站支援高並發向分散式方向發展至關重要。因此在網站規模還很小的時候就應該採用分層的架構,這樣將來網站做大時才能有更好地應對。
1.2 分割
如果說分層是將軟體在橫向方面進行切分,那麼分割就是在縱向方面對軟體進行切分。
網站越大,功能越複雜,服務和數據處理的種類也越多,將這些不同的功能和服務分割開來,包裝成高內聚低耦合的模組單元,一方面有助於軟體的開發和維護;另一方面,便於不同模組的分散式部署,提高網站的並發處理能力和功能擴展能力。
大型網站分割的粒度可能會很小。比如在應用層,將不同業務進行分割,例如將購物、論壇、搜索、廣告分割成不同的應用,由獨立的團隊負責,部署在不同的伺服器上;在同一個應用內部,如果規模龐大業務複雜,會繼續進行分割,比如購物業務,可以進一步分割成機票酒店業務、3C業務,小商品業務等更細小的粒度。而即使在這個粒度上,還是可以繼續分割成首頁、搜索列表、商品詳情等模組,這些模組不管在邏輯上還是物理部署上,都可以是獨立的。同樣在服務層也可以根據需要將服務分割成合適的模組。
1.3 分散式
對於大型網站,分層和分割的一個主要目的是為了切分後的模組便於分散式部署,即將不同模組部署在不同的伺服器上,通過遠程調用協同工作。分散式意味著可以使用更多的電腦完成同樣的功能,電腦越多,CPU、記憶體、存儲資源也就越多,能夠處理的並發訪問和數據量就越大,進而能夠為更多的用戶提供服務。
但分散式在解決網站高並發問題的同時也帶來了其他問題。首先,分散式意味著服務調用必須通過網路,這可能會對性能造成比較嚴重的影響;其次,伺服器越多,伺服器宕機的概率也就越大,一台伺服器宕機造成的服務不可用可能會導致很多應用不可訪問,使網站可用性降低;另外,數據在分散式的環境中保持數據一致性也非常困難,分
布式事務也難以保證,這對網站業務正確性和業務流程有可能造成很大影響;分散式還導致網站依賴錯綜複雜,開發管理維護困難。因此分散式設計要根據具體情況量力而行,切莫為了分散式而分散式。
在網站應用中,常用的分散式方案有以下幾種。
-
分散式應用和服務:將分層和分割後的應用和服務模組分散式部署,除了可以改善網站性能和並發性、加快開發和發布速度、減少資料庫連接資源消耗外;還可以使不同應用復用共同的服務,便於業務功能擴展。
-
分散式靜態資源:網站的靜態資源如 Js,CSS,Logo 圖片等資源獨立分散式部署,並採用獨立的域名,即人們常說的動靜分離。靜態資源分散式部署可以減輕應用伺服器的負載壓力;通過使用獨立域名加快瀏覽器並發載入的速度;由負責用戶體驗的團隊進行開發維護有利於網站分工合作,使不同技術工種術業有專攻。
-
分散式數據和存儲:大型網站需要處理以P為單位的海量數據,單台電腦無法提供如此大的存儲空間,這些數據需要分散式存儲。除了對傳統的關係資料庫進行分散式部署外,為網站應用而生的各種 NOSQL 產品幾乎都是分散式的。
-
分散式計算:嚴格說來,應用、服務、實時數據處理都是計算,網站除了要處理這些在線業務,還有很大一部分用戶沒有直觀感受的後台業務要處理,包括搜索引擎的索引構建、數據倉庫的數據分析統計等。這些業務的計算規模非常龐大,目前網站普遍使
用 Hadoop 及其 MapReduce 分散式計算框架進行此類批處理計算,其特點是移動計算而不是移動數據,將計算程式分發到數據所在的位置以加速計算和分散式計算。
此外,還有可以支援網站線上伺服器配置實時更新的分散式配置;分散式環境下實現並發和協同的分散式鎖;支援雲存儲的分散式文件系統等。
1.4 集群
使用分散式雖然已經將分層和分割後的模組獨立部署,但是對於用戶訪問集中的模組(比如網站的首頁),還需要將獨立部署的伺服器集群化,即多台伺服器部署相同應用構成一個集群,通過負載均衡設備共同對外提供服務。
因為伺服器集群有更多伺服器提供相同服務,因此可以提供更好的並發特性,當有更多用戶訪問的時候,只需要向集群中加入新的機器即可。同時因為一個應用由多台伺服器提供,當某台伺服器發生故障時,負載均衡設備或者系統的失效轉移機制會將請求轉發到集群中其他伺服器上,使伺服器故障不影響用戶使用。所以在網站應用中,即使是訪問量很小的分散式應用和服務,也至少要部署兩台伺服器構成一個小的集群,目的就是提高系統的可用性。
1.5 快取
快取就是將數據存放在距離計算最近的位置以加快處理速度。快取是改善軟體性能的第一手段,現代CPU越來越快的一個重要因素就是使用了更多的快取,在複雜的軟體設計中,快取幾乎無處不在。大型網站架構設計在很多方面都使用了快取設計。
-
CDN:即內容分發網路,部署在距離終端用戶最近的網路服務商,用戶的網路請求總是先到達他的網路服務商那裡,在這裡快取網站的一些靜態資源(較少變化的數據),可以就近以最快速度返回給用戶,如影片網站和門戶網站會將用戶訪問量大的熱點內容快取在CDN。
-
反向代理:反向代理屬於網站前端架構的一部分,部署在網站的前端,當用戶請求到達網站的數據中心時,最先訪問到的就是反向代理伺服器,這裡快取網站的靜態資源,無需將請求繼續轉發給應用伺服器就能返回給用戶。
-
本地快取:在應用伺服器本地快取著熱點數據,應用程式可以在本機記憶體中直接訪問數據,而無需訪問資料庫。
-
分散式快取:大型網站的數據量非常龐大,即使只快取一小部分,需要的記憶體空間也不是單機能承受的,所以除了本地快取,還需要分散式快取,將數據快取在一個專門的分散式快取集群中,應用程式通過網路通訊訪問快取數據。
使用快取有兩個前提條件,一是數據訪問熱點不均衡,某些數據會被更頻繁的訪問,這些數據應該放在快取中;二是數據在某個時間段內有效,不會很快過期,否則快取的數據就會因已經失效而產生臟讀,影響結果的正確性。網站應用中,快取除了可以加快數據訪問速度,還可以減輕後端應用和數據存儲的負載壓力,這一點對網站資料庫架構至關重要,網站資料庫幾乎都是按照有快取的前提進行負載能力設計的。
1.6 非同步
電腦軟體發展的一個重要目標和驅動力是降低軟體耦合性。事物之間直接關係越少,就越少被彼此影響,越可以獨立發展。大型網站架構中,系統解耦合的手段除了前面提到的分層、分割、分布等,還有一個重要手段是非同步,業務之間的消息傳遞不是同步調用,而是將一個業務操作分成多個階段,每個階段之間通過共享數據的方式非同步執行進行協作。
在單一伺服器內部可通過多執行緒共享記憶體隊列的方式實現非同步,處在業務操作前面的執行緒將輸出寫入到隊列,後面的執行緒從隊列中讀取數據進行處理;在分散式系統中,多個伺服器集群通過分散式消息隊列實現非同步,分散式消息隊列可以看作記憶體隊列的分散式部署。
非同步架構是典型的生產者消費者模式,兩者不存在直接調用,只要保持數據結構不變,彼此功能實現可以隨意變化而不互相影響,這對網站擴展新功能非常便利。除此之外,使用非同步消息隊列還有如下特性。
-
提高系統可用性。消費者伺服器發生故障,數據會在消息隊列伺服器中存儲堆積,生產者伺服器可以繼續處理業務請求,系統整體表現無故障。消費者伺服器恢復正常後,繼續處理消息隊列中的數據。
-
加快網站響應速度。處在業務處理前端的生產者伺服器在處理完業務請求後,將數據寫入消息隊列,不需要等待消費者伺服器處理就可以返回,響應延遲減少。
-
消除並發訪問高峰。用戶訪問網站是隨機的,存在訪問高峰和低谷,即使網站按照般訪問高峰進行規劃和部署,也依然會出現突發事件,比如購物網站的促銷活動,微博上的熱點事件,都會造成網站並發訪問突然增大,這可能會造成整個網站負載過重,響應延遲,嚴重時甚至會出現服務宕機的情況。使用消息隊列將突然增加的訪問請求數據放入消息隊列中,等待消費者伺服器依次處理,就不會對整個網站負載造成太大壓力。
但需要注意的是,使用非同步方式處理業務可能會對用戶體驗、業務流程造成影響,需要網站產品設計方面的支援。
1.7 冗餘
網站需要7×24小時連續運行,但是伺服器隨時可能出現故障,特別是伺服器規模比較大時,出現某台伺服器宕機是必然事件。要想保證在伺服器宕機的情況下網站依然可以繼續服務,不丟失數據,就需要一定程度的伺服器冗餘運行,數據冗餘備份,這樣當某台伺服器宕機時,可以將其上的服務和數據訪問轉移到其他機器上。
訪問和負載很小的服務也必須部署至少兩台伺服器構成一個集群,其目的就是通過冗餘實現服務高可用。資料庫除了定期備份,存檔保存,實現冷備份外,為了保證在線業務高可用,還需要對資料庫進行主從分離,實時同步實現熱備份。
為了抵禦地震、海嘯等不可抗力導致的網站完全癱瘓,某些大型網站會對整個數據中心進行備份,全球範圍內部署災備數據中心。網站程式和數據實時同步到多個災備數據中心。
1.8 自動化
在無人值守的情況下網站可以正常運行,一切都可以自動化是網站的理想狀態。目前大型網站的自動化架構設計主要集中在發布運維方面。
發布對網站都是頭等大事,許多網站故障出在發布環節,網站工程師經常加班也是因為發布不順利。通過減少人為干預,使發布過程自動化可有效減少故障。發布過程包括諸多環節。自動化程式碼管理,程式碼版本控制、程式碼分支創建合併等過程自動化,開發工程師只要提交自己參與開發的產品代號,系統就會自動為其創建開發分支,後期會自
動進行程式碼合併;自動化測試,程式碼開發完成,提交測試後,系統自動將程式碼部署到測試環境,啟動自動化測試用例進行測試,向相關人員發送測試報告,向系統回饋測試結果;自動化安全檢測,安全檢測工具通過對程式碼進行靜態安全掃描及部署到安全測試環境進行安全攻擊測試,評估其安全性;最後進行自動化部署,將工程程式碼自動部署到線上生產環境。
此外,網站在運行過程中可能會遇到各種問題:伺服器宕機、程式Bug、存儲空間不足、突然爆發的訪冋高峰。網站需要對線上生產環境進行自動化監控,對伺服器進行心跳檢測,並監控其各項性能指標和應用程式的關鍵數據指標。如果發現異常、超出預設的閾值,就進行自動化報警,向相關人員發送報警資訊,警告故障可能會發生。在檢測到故障發生後,系統會進行自動化失效轉移,將失效的伺服器從集群中隔離出去,不再處理系統中的應用請求。待故障消除後,系統進行自動化失效恢復,重新啟動服務,同步數據保證數據的一致性。在網站遇到訪問高峰,超出網站最大處理能力時,為了保證整個網站的安全可用,還會進行自動化降級,通過拒絕部分請求及關閉部分不重要的服務將系統負載降至一個安全的水平,必要時,還需要自動化分配資源,將空閑資源分配給重要的服務,擴大其部署規模。
1.9 安全
互聯網的開放特性使得其從誕生起就面對巨大的安全挑戰,網站在安全架構方面也積累了許多模式:通過密碼和手機校驗碼進行身份認證;登錄、交易等操作需要對網路通訊進行加密,網站伺服器上存儲的敏感數據如用戶資訊等也進行加密處理;為了防止機器人程式濫用網路資源攻擊網站,網站使用驗證碼進行識別;對於常見的用於攻擊網站的 XSS 攻擊、SQL 注入、進行編碼轉換等相應處理;對於垃圾資訊、敏感資訊進行過濾;對交易轉賬等重要操作根據交易模式和交易資訊進行風險控制。
2.架構模式在新浪微博的應用
短短几年時間新浪微博的用戶數就從零增長到數億,明星用戶的粉絲數達數千萬圍繞著新浪微博正在發展一個集社交、媒體、遊戲、電商等多位一體的生態系統。同大多數網站一樣,新浪微博也是從一個小網站發展起來的。簡單的LAMP(Linux+ Apache+ MySQL+PHP)架構,支撐起最初的新浪微博,應用序用PHP開發,所有的數據,包括微博、用戶、關係都存儲在 MySQL資料庫中。
這樣簡單的架構無法支撐新浪微博快速發展的業務需求,隨著訪問用戶的逐漸增加,系統不堪重負。新浪微博的架構在較短時間內幾經重構,最後形成現在的架構,如圖所示。
系統分為三個層次,最下層是基礎服務層,提供資料庫、快取、存儲、搜索等數據服務,以及其他一些基礎技術服務,這些服務支撐了新浪微博的海量數據和高並發訪問,是整個系統的技術基礎。
中間層是平台服務和應用服務層,新浪微博的核心服務是微博、關係和用戶,它們是新浪微博業務大廈的支柱。這些服務被分割為獨立的服務模組,通過依賴調用和共享基礎數據構成新浪微博的業務基礎。
最上層是API和新浪微博的業務層,各種客戶端(包括Web網站)和第三方應用,通過調用AP集成到新浪微博的系統中,共同組成一個生態系統。
這些被分層和分割後的業務模組與基礎技術模組分散式部署,每個模組都部署在組獨立的伺服器集群上,通過遠程調用的方式進行依賴訪問。新浪微博在早期還使用過一種叫作 MPSS(MultiPort Single Server,單伺服器多埠)的分散式集群部署方案,在集群中的多台伺服器上,每台都部署多個服務,每個服務使用不同的埠對外提供服務,通過這種方式使得有限的伺服器可以部署更多的服務實例,改善服務的負載均衡和可用性。現在網站應用中常見的將物理機虛擬化成多個虛擬機後,在虛擬機上部署應用的方案跟新浪微博的 MPSS 方案異曲同工,只是更加簡單,還能在不同虛擬機上使用相同的埠號。
在新浪微博的早期架構中,微博發布使用同步推模式,用戶發表微博後系統會立即將這條微博插入到資料庫所有粉絲的訂閱列表中,當用戶量比較大時,特別是明星用戶發布微博時,會引起大量的資料庫寫操作,超出資料庫負載,系統性能急劇下降,用戶響應延遲加劇。後來新浪微博改用非同步推拉結合的模式,用戶發表微博後系統將微博寫
入消息隊列後立即返回,用戶響應迅速,消息隊列消費者任務將微博推送給所有當前在線粉絲的訂閱列表中,非在線用戶登錄後再根據關注列表拉取微博訂閱列表。
由於微博頻繁刷新,新浪微博使用多級快取策略,熱門微博和明星用戶的微博快取在所有的微博伺服器上,在線用戶的微博和近期微博快取在分散式快取集群中,對於微博操作中最常見的「刷微博「操作,幾乎全部都是快取訪問操作,可以獲得很好的系統性能。
為了提高系統的整體可用性和性能,新浪微博啟用了多個數據中心。這些數據中心既是地區用戶訪問中心,用戶可以就近訪問最近的數據中心以加快訪問速度,改善系統性能;同時也是數據冗餘複製的災備中心,所有的用戶和微博數據通過遠程消息系統在不同的數據中心之間同步,提高系統可用性。
同時,新浪微博還開發了一系列自動化工具,包括自動化監控,自動化發布,自動化故障修復等,這些自動化工具還在持續開發中,以改善運維水平提高系統可用性。
由於微博的開放特性,新浪微博也遇到了一系列的安全挑戰,垃圾內容、殭屍粉、微博攻擊從未停止,除了使用一般網站常見的安全策略,新浪微博在開放平台上使用多級安全審核的策略以保護系統和用戶。
3.小結
在程式設計與架構設計領域,模式正變得越來越受人關注,許多人寄希望通過模式一勞永逸地解決自己的問題。正確使用模式可以更好地利用業界和前人的思想與實踐,用更少的時間開發出更好的系統,使設計者的水平也達到更高的境界。但是模式受其適用場景限制,對系統的要求和約束也很多,不恰當地使用模式只會畫虎不成反類犬,不
但沒有解決原來的老問題,反而帶來了更棘手的新問題。
好的設計絕對不是模仿,不是生搬硬套某個模式,而是對問題深刻理解之上的創造與創新,即使是「微創新」,也是讓人耳目一新的似曾相識。山寨與創新的最大區別不在於是否抄襲,是否模仿,而在於對問題和需求是否真正理解與把握。
參考資料
[1]《大型網站技術架構 核心原理與案例分析》李智慧