一、傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)
數(shù)據(jù)中心前端計算網(wǎng)絡(luò)主要由大量的二層接入設(shè)備及少量的三層設(shè)備組成,傳統(tǒng)上是標準的三層結(jié)構(gòu)(如圖1所示):
接入層,用于連接所有的計算節(jié)點,在較大規(guī)模的數(shù)據(jù)中心中,通常以柜頂交換機的形式存在;
匯聚層,用于接入層的互聯(lián),并作為該匯聚區(qū)域二三層的邊界,同時各種防火墻、負載均衡等業(yè)務(wù)也部署于此;
核心層,用于匯聚層的的互聯(lián),并實現(xiàn)整個數(shù)據(jù)中心與外部網(wǎng)絡(luò)的三層通信。
圖1 傳統(tǒng)數(shù)據(jù)中心網(wǎng)絡(luò)三層架構(gòu)
傳統(tǒng)的網(wǎng)絡(luò)模型在很長一段時間內(nèi),支撐了各種類型的數(shù)據(jù)中心,但隨著互聯(lián)網(wǎng)的發(fā)展以及企業(yè)IT信息化水平的提高,新的應(yīng)用類型及數(shù)量急劇增長。隨著數(shù)據(jù)中心規(guī)模的不斷膨脹,以及虛擬化、云計算等新技術(shù)的不斷發(fā)展,僅僅使用傳統(tǒng)的網(wǎng)絡(luò)技術(shù)越來越無法適應(yīng)業(yè)務(wù)發(fā)展的需要。在互聯(lián)網(wǎng)領(lǐng)域,這一點表現(xiàn)的尤為明顯。
二、數(shù)據(jù)中心網(wǎng)絡(luò)的新變化
截至2013年12月,中國網(wǎng)民規(guī)模達6.18億,全年共計新增網(wǎng)民5358萬人,互聯(lián)網(wǎng)普及率為45.8%。大量網(wǎng)民的涌入必然帶來網(wǎng)絡(luò)流量的急劇膨脹。對于互聯(lián)網(wǎng)企業(yè),承載具體應(yīng)用的數(shù)據(jù)中心的計算資源及網(wǎng)絡(luò)節(jié)點常常滿負荷運轉(zhuǎn);而對于傳統(tǒng)企業(yè),隨著自身業(yè)務(wù)量的增加,以及各類業(yè)務(wù)互聯(lián)網(wǎng)化的需求,對數(shù)據(jù)中心的整體的吞吐量也提出了新的要求。
服務(wù)器萬兆網(wǎng)絡(luò)接入漸成主流
受成本、以及技術(shù)成熟度制約,傳統(tǒng)數(shù)據(jù)中心以千兆接入為主。隨著CPU計算能力的不斷提高,目前主流的服務(wù)器處理性能,已經(jīng)超出了千兆網(wǎng)卡的輸出能力。同時,F(xiàn)C存儲網(wǎng)絡(luò)與IP網(wǎng)絡(luò)的融合,也要求IP網(wǎng)絡(luò)的接入速率達到FC的性能要求。當僅僅通過鏈路聚合、增加等價路徑等技術(shù)手段已經(jīng)無法滿足業(yè)務(wù)對網(wǎng)絡(luò)性能的需求時,提高網(wǎng)絡(luò)端口速率成為必然之選。
萬兆以太網(wǎng)從起步到目前逐漸成為應(yīng)用主流,延續(xù)了以太網(wǎng)技術(shù)發(fā)展的主基調(diào),憑借其技術(shù)優(yōu)勢,替代其他網(wǎng)絡(luò)接入技術(shù),成為高性能網(wǎng)絡(luò)的不二選擇。目前新的數(shù)據(jù)中心,萬兆網(wǎng)絡(luò)接入已成為事實上的標準。
數(shù)據(jù)中心流量模型發(fā)生顯著變化
傳統(tǒng)的數(shù)據(jù)中心內(nèi),服務(wù)器主要用于對外提供業(yè)務(wù)訪問,不同的業(yè)務(wù)通過安全分區(qū)及VLAN隔離。一個分區(qū)通常集中了該業(yè)務(wù)所需的計算、網(wǎng)絡(luò)及存儲資源,不同的分區(qū)之間或者禁止互訪,或者經(jīng)由核心交換通過三層網(wǎng)絡(luò)交互,數(shù)據(jù)中心的網(wǎng)絡(luò)流量大部分集中于南北向。
在這種設(shè)計下,不同分區(qū)間計算資源無法共享,資源利用率低下的問題越來越突出。通過虛擬化技術(shù)、云計算管理技術(shù)等,將各個分區(qū)間的資源進行池化,實現(xiàn)數(shù)據(jù)中心內(nèi)資源的有效利用。而隨著這些新技術(shù)的興起和應(yīng)用,新的業(yè)務(wù)需求如虛擬機遷移、數(shù)據(jù)同步、數(shù)據(jù)備份、協(xié)同計算等在數(shù)據(jù)中心內(nèi)開始實現(xiàn)部署,數(shù)據(jù)中心內(nèi)部東西向流量開始大幅度增加。
物理二層向邏輯二層轉(zhuǎn)變
在虛擬化初期,虛擬機管理及遷移主要依靠物理的網(wǎng)絡(luò),由于遷移本身要求二層網(wǎng)絡(luò),因此數(shù)據(jù)中心內(nèi)部東西向流量主要是二層流量。為增加二層物理網(wǎng)絡(luò)的規(guī)模,并提高鏈路利用率,出現(xiàn)了TRILL、SPB等大二層網(wǎng)絡(luò)技術(shù)。
隨著虛擬化數(shù)據(jù)中心規(guī)模的擴大,以及云化管理的深入,物理網(wǎng)絡(luò)的種種限制越來越不適應(yīng)虛擬化的要求,由此提出了VXLAN、NVGRE等網(wǎng)絡(luò)Overlay方案,在這一方案下,物理網(wǎng)絡(luò)中的東西向流量類型也逐漸由二層向三層轉(zhuǎn)變,通過增加封裝,將網(wǎng)絡(luò)拓撲由物理二層變?yōu)檫壿嫸䦟,同時提供邏輯二層的劃分管理,更好的滿足了多租戶的需求。
VXLAN、NVGRE等Overlay技術(shù)都是通過將MAC封裝在IP之上,實現(xiàn)對物理網(wǎng)絡(luò)的屏蔽,解決了物理網(wǎng)絡(luò)VLAN數(shù)量限制、接入交換機MAC表項有限等問題。同時通過提供統(tǒng)一的邏輯網(wǎng)絡(luò)管理工具,方便的實現(xiàn)了虛擬機HA遷移時網(wǎng)絡(luò)策略跟隨的問題,大大降低了虛擬化對網(wǎng)絡(luò)的依賴,成為了目前網(wǎng)絡(luò)虛擬化的主要發(fā)展方向。
越來越多的網(wǎng)絡(luò)扁平化需求
隨著虛擬化技術(shù)的進步,每臺物理服務(wù)器的虛擬機數(shù)量由8臺提升至16臺、32臺甚至更多,這使得低延遲的服務(wù)器間通信和更高的雙向帶寬需求變得更加迫切。然而傳統(tǒng)的網(wǎng)絡(luò)核心、匯聚和接入的三層結(jié)構(gòu),服務(wù)器虛擬化后還有一個虛擬交換機層,而隨著刀片服務(wù)器的廣泛應(yīng)用,刀片式交換機也給網(wǎng)絡(luò)添加了一層交換。如此之多的網(wǎng)絡(luò)層次,使得數(shù)據(jù)中心計算節(jié)點間通信延時大幅增加,這就需要網(wǎng)絡(luò)化架構(gòu)向扁平化方向發(fā)展,最終的目標是在任意兩點之間盡量減少網(wǎng)絡(luò)架構(gòu)的數(shù)目。
為提高每臺服務(wù)器使用率,互聯(lián)網(wǎng)行業(yè)的網(wǎng)絡(luò)一般采用無收斂比的結(jié)構(gòu),然而在傳統(tǒng)的接入、匯聚和接入的三層模型下,且服務(wù)器開始大量采用萬兆接入,要保持無收斂比,則對匯聚/核心層交換機的上下行速率提出了極高的要求,網(wǎng)絡(luò)設(shè)備成本直線上升。
伴隨著業(yè)務(wù)訪問量的增長,所需的服務(wù)器數(shù)量也需要持續(xù)增長。比如國內(nèi)騰訊、百度、阿里三家互聯(lián)網(wǎng)公司,為滿足用戶訪問,平均每兩周就有1000臺以上服務(wù)器上線。這樣的上線速度和數(shù)量,對整個數(shù)據(jù)中心的自動化運維提出了極高的要求,基礎(chǔ)的網(wǎng)絡(luò)同樣需要適應(yīng)這種需求。
網(wǎng)絡(luò)扁平化后(如圖2所示),減少了中間層次,對核心設(shè)備交換能力要求降低,對于數(shù)據(jù)中心而言,后續(xù)擴容只需要以標準的機柜(包含服務(wù)器及柜頂交換單元)為單位增加即可,這樣既滿足了數(shù)據(jù)中心收斂比的要求,又能滿足服務(wù)器快速上線需要。扁平化成為互聯(lián)網(wǎng)企業(yè)網(wǎng)絡(luò)設(shè)計不斷追求的目標。
圖2 騰訊數(shù)據(jù)中心網(wǎng)絡(luò)采用的二層扁平結(jié)構(gòu)
數(shù)據(jù)中心的這些變化,對網(wǎng)絡(luò)提出了更高的要求。Fabric物理網(wǎng)絡(luò)架構(gòu)成為解決上述難題的一個重要手段。Fabric英文原意為“織物、布、結(jié)構(gòu)、建筑物、構(gòu)造”,“Fabric網(wǎng)絡(luò)架構(gòu)”則因其內(nèi)部縱橫互聯(lián)類似紡織結(jié)構(gòu)而得名。簡單的說,就是通過骨干網(wǎng)絡(luò)節(jié)點間分層互聯(lián)(或全互聯(lián))的方式,提供所有接入網(wǎng)絡(luò)的各類節(jié)點間的無差異互訪。
在Fabric架構(gòu)下(如圖3所示),所有節(jié)點可以全互聯(lián),也可以分層互聯(lián)。分層結(jié)構(gòu)下,節(jié)點類型分為骨干節(jié)點和葉子節(jié)點,骨干節(jié)點與葉子節(jié)點間全連接,骨干節(jié)點僅用作轉(zhuǎn)發(fā),葉子節(jié)點作為二三層的邊界。在這種架構(gòu)下,網(wǎng)絡(luò)全互聯(lián)形成的大量等價路徑既保證了鏈路的冗余可靠,又提高了整個Fabric網(wǎng)絡(luò)的吞吐量;扁平的網(wǎng)絡(luò)結(jié)構(gòu)保證了任意節(jié)點間較高的連接速率,同時對任意類型流量均擁有極低的時延。
圖3 Fabric網(wǎng)絡(luò)拓撲結(jié)構(gòu)
Fabric架構(gòu)給數(shù)據(jù)中心網(wǎng)絡(luò)部署帶來以下好處:
可以大幅降低服務(wù)器萬兆接入的建設(shè)成本。當前100GE設(shè)備及布線成本都十分高昂,服務(wù)器采用10GE接入后,傳統(tǒng)結(jié)構(gòu)下,匯聚及核心層設(shè)備必須具備100GE的轉(zhuǎn)發(fā)能力才能保證盡量低的收斂比。在新的網(wǎng)絡(luò)結(jié)構(gòu)下,骨干節(jié)點只做交換,網(wǎng)關(guān)直接部署在葉子節(jié)點,F(xiàn)abric內(nèi)部采用40GE速率即可滿足萬兆接入需求,大幅降低了網(wǎng)絡(luò)建設(shè)成本。
可以支持更大的數(shù)據(jù)中心。由于這種結(jié)構(gòu)的扁平化特點,在較低的收斂比下,可以通過簡單的增加接入設(shè)備,方便的接入幾千個計算節(jié)點,通過Fabric間互聯(lián),可以很容易的增加至上萬個計算節(jié)點,滿足了現(xiàn)代大型數(shù)據(jù)中心規(guī)模建設(shè)的需求。
可以滿足云計算的網(wǎng)絡(luò)需要。云計算將計算資源做成了一個資源池,而Fabric結(jié)構(gòu)將網(wǎng)絡(luò)做成了一個大的資源池。這種結(jié)構(gòu)不再區(qū)分南北流量和東西流量,使得計算節(jié)點與任意方向通信均無阻塞;對服務(wù)器的接入位置沒有要求,無論采用VLAN、VXLAN、NVGRE等何種技術(shù),任意節(jié)點間可以實現(xiàn)高速、低時延的互聯(lián),大幅提高了整網(wǎng)性能。
但是,F(xiàn)abric架構(gòu)并非完美。葉子節(jié)點網(wǎng)絡(luò)設(shè)備無論是性能要求還是功能要求,均高于傳統(tǒng)架構(gòu)下的接入設(shè)備,其作為各種類型的網(wǎng)關(guān)(二三層間、VLAN/VXLAN間、VXLAN/NVGRE間、FC/IP間等等),芯片處理能力要求較高,目前尚無滿足所有協(xié)議間互通的商用芯片;由于不存在相關(guān)的標準,為了實現(xiàn)各種類型網(wǎng)絡(luò)的接入,其骨干節(jié)點與葉子節(jié)點間的轉(zhuǎn)發(fā)各個廠商均采用了私有封裝,這也為將來的互通設(shè)置了難題。
Fabric網(wǎng)絡(luò)架構(gòu)這一全新的數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu),在規(guī)模、性能和簡單性方面實現(xiàn)質(zhì)的飛躍,同時還降低了建設(shè)成本,獲得了更大的敏捷性和效率,雖然各個廠商在實現(xiàn)這一架構(gòu)時存在一些自己私有的處理,但目前的確已成為未來數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)的一個公認的發(fā)展方向。
三、未來彈性、自適應(yīng)的數(shù)據(jù)中心網(wǎng)絡(luò)
我們同樣看到,物理網(wǎng)絡(luò)架構(gòu)改變后一些問題仍然存在,僅僅依靠對傳統(tǒng)技術(shù)的修修補補已經(jīng)無法滿足未來數(shù)據(jù)中心網(wǎng)絡(luò)的需求。
數(shù)據(jù)中心規(guī)模越來越大,給運維管理帶來壓力,F(xiàn)代(特別是大型互聯(lián)網(wǎng)企業(yè))的數(shù)據(jù)中心,規(guī)模越來越大(如騰訊天津濱海數(shù)據(jù)中心,一期規(guī)模8萬臺服務(wù)器,規(guī)劃規(guī)模達到20萬臺),所需要的網(wǎng)絡(luò)設(shè)備數(shù)量相當驚人。除了各個層次大量的交換機外,可能還需要部署防火墻、防攻擊設(shè)備、負載均衡、流量清洗等等網(wǎng)絡(luò)安全設(shè)備,設(shè)備類型也會越來越豐富。同時,這些網(wǎng)絡(luò)設(shè)備來自不同的廠家,擁有不一樣的操作方式。這些對運維人員的能力提出了更高的要求。
版本更新、業(yè)務(wù)變更越來越困難。網(wǎng)絡(luò)需要變更以適應(yīng)用戶業(yè)務(wù)發(fā)展的需要,同時設(shè)備廠家會根據(jù)需要不定期發(fā)布軟件修正版本。但當數(shù)據(jù)中心發(fā)展到一定規(guī)模后,無論是業(yè)務(wù)變更還是版本更新,都變得非常困難,這既有設(shè)備規(guī)模過大帶來的巨大工作量的問題,也有如何保證業(yè)務(wù)連續(xù)不中斷的考慮。
精確的流量控制越來越難。當前流量控制主要是基于ACL及QoS,通過識別特定的流量、對其應(yīng)用特定的策略,來實現(xiàn)對業(yè)務(wù)流量的管控。由于流量策略都是基于管理員對流量運行的假設(shè),在各個設(shè)備預(yù)先配置來實現(xiàn),且策略類型較少,而實際網(wǎng)絡(luò)上業(yè)務(wù)流量瞬息萬變,預(yù)先設(shè)置的策略往往不能很好的匹配,無法實現(xiàn)復(fù)雜的管理控制邏輯,使得QoS實施效果不佳。
歸結(jié)以上問題,實際上是網(wǎng)絡(luò)缺乏統(tǒng)一的“大腦”。一直以來,網(wǎng)絡(luò)的工作方式是:網(wǎng)絡(luò)節(jié)點之間通過各種交互機制,獨立的學(xué)習整個網(wǎng)絡(luò)拓撲,自行決定與其他節(jié)點的交互方式;當流量過來時,根據(jù)節(jié)點間交互做出的決策,獨立的轉(zhuǎn)發(fā)相應(yīng)報文;當網(wǎng)絡(luò)中節(jié)點發(fā)生變化時,其他節(jié)點感知變化重新計算路徑。網(wǎng)絡(luò)設(shè)備的這種分散決策的特點,在此前很長一段時間內(nèi)滿足了互聯(lián)互通的需要,但由于這種分散決策機制缺少全局掌控,在需要流量精細化控制管理的今天,表現(xiàn)出越來越多的問題。
經(jīng)過多年的發(fā)展,SDN為解決這些難題提供了可行的解決方案(如圖4所示)。它通過集中的控制器來實現(xiàn)對整網(wǎng)設(shè)備的監(jiān)控和管理,利用軟件的靈活、動態(tài)可擴展,提供豐富的管理控制策略,通過開放相關(guān)API,可以集成第三方APP,實現(xiàn)更多的個性化的網(wǎng)絡(luò)控制。
圖4 ONF典型SDN控制器架構(gòu)
SDN網(wǎng)絡(luò)是一種全新的網(wǎng)絡(luò)。在這樣的網(wǎng)絡(luò)中,控制器就是大腦,它掌控全局,學(xué)習整網(wǎng)的拓撲,管理網(wǎng)絡(luò)中的各個節(jié)點。網(wǎng)絡(luò)中的其他節(jié)點,只需要向“大腦”上報網(wǎng)絡(luò)變化,并按照“大腦”的指揮,完成自己的工作即可。隨著網(wǎng)絡(luò)的規(guī)模的增加,網(wǎng)絡(luò)中“大腦”的數(shù)量、功能也隨之增加。比如,每臺控制器所管理的節(jié)點數(shù)量有限,可以組成控制器集群管理整個網(wǎng)絡(luò);有的控制器控制流量轉(zhuǎn)發(fā),有的控制器控制安全策略,還有的控制器控制虛擬網(wǎng)絡(luò)的管理等等。
SDN的發(fā)展也同樣存在相當?shù)牟淮_定性。傳統(tǒng)的南向接口OpenFlow會越來越復(fù)雜,現(xiàn)有網(wǎng)絡(luò)設(shè)備無法簡單升級支持;同時滿足大流表的需求將大幅提高芯片成本;控制器發(fā)展不統(tǒng)一,各個廠家都在爭奪自己在未來SDN網(wǎng)絡(luò)的話語權(quán),標準化進程緩慢,各種私有的協(xié)議加入將導(dǎo)致未來網(wǎng)絡(luò)成為少數(shù)玩家的地盤。但我們同樣相信,無論具體實現(xiàn)形式如何,SDN這種集中管控、靈活動態(tài)的網(wǎng)絡(luò)部署必將成為未來的發(fā)展趨勢。
四、結(jié)束語
我們很快就會看到,新的數(shù)據(jù)中心采用云計算技術(shù)對所有虛擬計算資源集中管理,F(xiàn)abric架構(gòu)的網(wǎng)絡(luò)無縫實現(xiàn)了數(shù)據(jù)中心各個區(qū)域的互聯(lián),基于Overlay的二層網(wǎng)絡(luò)實現(xiàn)了虛擬機的流暢遷移,集中化的SDN網(wǎng)絡(luò)控制器提供對數(shù)據(jù)中心整網(wǎng)的監(jiān)控,各種流量根據(jù)數(shù)據(jù)中心當前網(wǎng)絡(luò)狀況實時切換經(jīng)由路徑,偌大的數(shù)據(jù)中心內(nèi),寥寥數(shù)人便完成了全部的運維管理。我們相信,這就是將來的數(shù)據(jù)中心的工作情景。
附:業(yè)內(nèi)主要廠商SDN方案
作為一個嶄新的網(wǎng)絡(luò)形式,SDN吸引了大量眼球,傳統(tǒng)的網(wǎng)絡(luò)設(shè)備廠家、軟件巨頭投入了大量的精力進行相關(guān)研發(fā)。各廠商間的競爭和融合產(chǎn)生了眾多的SDN落地方案:
華三通信提出VCF(Virtual Converged Framework,虛擬融合架構(gòu))方案,實現(xiàn)了VXLAN、NVGRE等Overlay技術(shù)在網(wǎng)絡(luò)設(shè)備層的落地,通過在芯片層處理Overlay報文,大幅度提高了虛擬化二層網(wǎng)絡(luò)的性能,同時提供VCF Controller全融合控制器,提供虛擬化網(wǎng)絡(luò)管理、OpenFlow流表控制、RAM管理控制等功能,與華三通信數(shù)據(jù)中心交換機一起,構(gòu)成了全套的云數(shù)據(jù)中心網(wǎng)絡(luò)解決方案。
Cisco的ACI以新的N9000產(chǎn)品作為基礎(chǔ),提出了融合Overlay的Fabric物理架構(gòu),并通過APIC提供面向應(yīng)用的策略管理控制;
VMWare作為傳統(tǒng)虛擬化軟件廠家,通過純軟件化的NSX方案,提供了與物理網(wǎng)絡(luò)無關(guān)的二層VXLAN方案;
Juniper提出Contrail方案,即控制器間通過擴展的BGP交互,控制器與網(wǎng)絡(luò)節(jié)點通過XMPP、Netconf實現(xiàn)控制,并對OpenStack提供API插件實現(xiàn)云架構(gòu)下的網(wǎng)絡(luò)管理。
核心關(guān)注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務(wù)領(lǐng)域、行業(yè)應(yīng)用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務(wù)管理理念,功能涉及供應(yīng)鏈、成本、制造、CRM、HR等眾多業(yè)務(wù)領(lǐng)域的管理,全面涵蓋了企業(yè)關(guān)注ERP管理系統(tǒng)的核心領(lǐng)域,是眾多中小企業(yè)信息化建設(shè)首選的ERP管理軟件信賴品牌。
轉(zhuǎn)載請注明出處:拓步ERP資訊網(wǎng)http://www.ezxoed.cn/
本文標題:淺談數(shù)據(jù)中心網(wǎng)絡(luò)架構(gòu)的發(fā)展
本文網(wǎng)址:http://www.ezxoed.cn/html/support/11121518128.html