云計算環(huán)境下,數(shù)據(jù)中心網(wǎng)絡(luò)主要面臨2 個瓶頸。一是數(shù)據(jù)中心的核心交換設(shè)備,它作為數(shù)據(jù)中心所有業(yè)務(wù)系統(tǒng)之間,以及業(yè)務(wù)系統(tǒng)和用戶之間的交換樞紐,將會是所有流量匯集的地方,所以網(wǎng)絡(luò)核心的性能壓力最大,是可能的瓶頸所在。另一個就是安全設(shè)備,安全設(shè)備的性能往往落后于網(wǎng)絡(luò)設(shè)備一個級數(shù),而其在企業(yè)數(shù)據(jù)中心的部署又是必不可少的防護措施,所以如何突破安全的性能瓶頸至關(guān)重要。
網(wǎng)絡(luò)技術(shù)和數(shù)據(jù)中心的發(fā)展,同樣推動了數(shù)據(jù)中心級交換機的出現(xiàn),目前數(shù)據(jù)中心級的核心交換機(例如H3C的S12500和Cisco的Nexus 7000)已經(jīng)成為數(shù)據(jù)中心核心網(wǎng)絡(luò)的寵兒。基于CLOS 的多級交換架構(gòu),使其具備了10T以上的交換容量,能夠支持高密度的萬兆端口,具有更好的擴展性,能夠很好地緩解數(shù)據(jù)中心核心網(wǎng)絡(luò)的交換壓力,解決核心網(wǎng)絡(luò)性能瓶頸。另一方面,雖然部分高端安全設(shè)備已經(jīng)搭建在10G平臺之上,但依然不能滿足對其在性能上的高要求,所以目前最好的解決方法就是將萬兆的安全設(shè)備與網(wǎng)絡(luò)設(shè)備結(jié)合部署,通過在網(wǎng)絡(luò)設(shè)備中部署支持安全模塊實現(xiàn)性能累加。該方式在當(dāng)前的數(shù)據(jù)中心建設(shè)中已經(jīng)逐漸成為了主流方案,不但可以解決安全設(shè)備帶來的性能瓶頸,而且可以解決安全系統(tǒng)部署在可靠性和空間上遇到的種種難題。
因此,在數(shù)據(jù)中心網(wǎng)絡(luò)部署時,建議核心交換設(shè)備采用基于100G平臺的數(shù)據(jù)中心設(shè)備,以保障網(wǎng)絡(luò)的性能和可靠性;在匯聚層通過部署萬兆交換機及嵌入式安全業(yè)務(wù)模塊,來消除安全系統(tǒng)的性能瓶頸,并提供更好的擴展性。
4.2 三網(wǎng)分離設(shè)計
云計算數(shù)據(jù)中心涉及的網(wǎng)絡(luò)分為3個:業(yè)務(wù)網(wǎng)絡(luò)、管理網(wǎng)絡(luò)和數(shù)據(jù)遷移網(wǎng)絡(luò)。業(yè)務(wù)網(wǎng)絡(luò)用來承擔(dān)虛擬機之間和對外的業(yè)務(wù)數(shù)據(jù)流量;管理網(wǎng)絡(luò)用來承載云管理平臺對物理機、虛擬機的管理維護;數(shù)據(jù)遷移網(wǎng)絡(luò)用于虛機遷移時在不同物理機之間拷貝虛機內(nèi)存數(shù)據(jù)。
為了避免3個網(wǎng)絡(luò)之間互聯(lián)占用資源,在云計算數(shù)據(jù)中心網(wǎng)絡(luò)設(shè)計時應(yīng)考慮對這3個網(wǎng)絡(luò)進行分離,物理機配置網(wǎng)卡時分為3組獨立的網(wǎng)口,分別對應(yīng)到3個上聯(lián)網(wǎng)絡(luò),上聯(lián)網(wǎng)絡(luò)設(shè)備也宜采用不同的交換機,實現(xiàn)三網(wǎng)分離。
4.3 構(gòu)建大二層網(wǎng)絡(luò)
當(dāng)虛擬機在物理服務(wù)器之間進行遷移時,為了避免虛擬機遷移后路由的震蕩和修改網(wǎng)絡(luò)規(guī)劃,遷移只能在二層域進行,因此數(shù)據(jù)中心需要具備一個性能更高、二層域更大的網(wǎng)絡(luò)環(huán)境為遷移提供保障。
4.3.1 傳統(tǒng)以太網(wǎng)的瓶頸
在傳統(tǒng)以太網(wǎng)中使用生成樹協(xié)議STP來確保無環(huán),但STP會導(dǎo)致網(wǎng)絡(luò)中部分路徑被阻塞,浪費端口和鏈路帶寬,且鏈路故障時收斂時間長(通常在秒級),在節(jié)點規(guī)模達到一定數(shù)量級時其設(shè)計和維護都會變得異常困難,因此云計算中需要新的技術(shù)在避免環(huán)路的基礎(chǔ)上提升多路徑帶寬利用率。
網(wǎng)絡(luò)核心層流量壓力增大。云計算環(huán)境下為了構(gòu)建大二層網(wǎng)絡(luò),通常采用扁平化的網(wǎng)絡(luò)設(shè)計,大量服務(wù)器的流量上行到網(wǎng)絡(luò)核心節(jié)點處理,因此會給核心層網(wǎng)絡(luò)設(shè)備帶來很大壓力。傳統(tǒng)的固定處理能力的網(wǎng)絡(luò)設(shè)備不能滿足持續(xù)擴展的云計算網(wǎng)絡(luò)的需求,需要采用可橫向擴展的網(wǎng)絡(luò)設(shè)備虛擬化技術(shù)。
4.3.2 網(wǎng)絡(luò)設(shè)備多虛一
交換機在整體架構(gòu)上分為控制平面和數(shù)據(jù)平面。控制平面主體是CPU,處理協(xié)議報文,數(shù)據(jù)平面主體是ASIC芯片,處理數(shù)據(jù)報文轉(zhuǎn)發(fā)。網(wǎng)絡(luò)設(shè)備虛擬化分為控制平面虛擬化和數(shù)據(jù)平面虛擬化。
控制平面虛擬化是將所有設(shè)備的控制平面合而為一,只有一個主體去處理整個虛擬交換機的協(xié)議處理、表項同步等工作,數(shù)據(jù)平面上所有的機框和盒子都可以對流量進行本地轉(zhuǎn)發(fā)和處理。Cisco的VSS/vPC和H3C的IRF都是比較成熟的控制平面虛擬化技術(shù)的代表。Cisco vPC(Virtual Port-Channel)技術(shù)可以實現(xiàn)在單個設(shè)備上使用port-channel連接2個上行交換機,完全使用所有上行鏈路的帶寬,并消除STP blocked ports,在link/device失效下提供快速收斂(見圖2)。
圖2 vPC示意圖
控制平面虛擬化從一定意義上來說是真正的虛擬交換機,能夠同時解決統(tǒng)一管理與接口擴展的需求。但是仍然存在擴展性的瓶頸,控制平面多虛一時,控制平面處理整個虛擬交換機運行的物理控制節(jié)點主控板都只能有一塊為主,其他都是備份角色(類似于服務(wù)器多虛一中的HA結(jié)構(gòu))?偠灾摂M交換機支持的物理節(jié)點規(guī)模永遠會受限于此控制節(jié)點的處理能力。
為了解決控制平面虛擬化的瓶頸,業(yè)界提出了數(shù)據(jù)平面的虛擬化。數(shù)據(jù)平面多虛一技術(shù)的特征就是在二層Ethernet 報文外面再封裝一層標(biāo)識用于尋址轉(zhuǎn)發(fā),這樣基于外層標(biāo)識就可以做些多路徑負載均衡和環(huán)路避免等處理工作了。典型的技術(shù)有IETF提出的TRILL(TRansparent Interconnect of Lots of Links)和IEEE 提出的SPB(Shortest Path Bridging)2 套標(biāo)準技術(shù),另外一些廠商在此之上也提出了一些私有技術(shù),如Cisco的FabricPath技術(shù)、Juniper的QFabric技術(shù)。
以TRILL 為例,TRILL 在控制平面上引入了L2ISIS作為尋址協(xié)議,運行在所有的TRILL RB(RoutingBridge)之間,部署于一個可自定義的獨立協(xié)議VLAN內(nèi),完成建立鄰接、繪制拓撲和傳遞Tag等工作。數(shù)據(jù)平面在內(nèi)外層Ethernet報頭之間引入了TRILL報頭,使用Nickname作為轉(zhuǎn)發(fā)標(biāo)識,用于報文在TRILL網(wǎng)絡(luò)中的尋址轉(zhuǎn)發(fā)。每個RB都具有唯一的Nickname,同時維護其他RB 的TRILL 公共區(qū)域MAC 地址、Nickname和私有區(qū)域內(nèi)部MAC地址的對應(yīng)關(guān)系表。
4.3.3 網(wǎng)絡(luò)設(shè)備一虛多
在同一個云計算網(wǎng)絡(luò)需要劃分不同資源池或者云計算網(wǎng)絡(luò)和非云計算網(wǎng)絡(luò)共用網(wǎng)絡(luò)設(shè)備時,需要用到網(wǎng)絡(luò)設(shè)備一虛多技術(shù)。典型的網(wǎng)絡(luò)設(shè)備一虛多技術(shù)是Cisco提出的VDC(Virtual Device Content)技術(shù)。VDC技術(shù)可以將一臺物理交換機邏輯上模擬成多臺(最多4臺)虛擬交換機,可以實現(xiàn)每個模擬出的VDC都擁有它自身的軟件進程、專用硬件資源(接口)和獨立的管理環(huán)境,可以實現(xiàn)獨立的安全管理界限劃分和故障隔離域。VDC技術(shù)有助于將分立網(wǎng)絡(luò)整合為一個通用基礎(chǔ)設(shè)施,保留物理上獨立的網(wǎng)絡(luò)管理界限劃分和故障隔離特性,并具有單一基礎(chǔ)設(shè)施所擁有的多種運營成本優(yōu)勢。
4.3.4 廣域二層互聯(lián)
當(dāng)2個異地云計算數(shù)據(jù)中心需要納入統(tǒng)一資源池,實現(xiàn)跨局址的虛擬機遷移時,需要做到跨越三層網(wǎng)絡(luò)的二層互聯(lián),Cisco 提出的OTV(Overlay TransportVirtualization)技術(shù)可以解決這一問題。OTV技術(shù)可以為跨任意傳輸網(wǎng)絡(luò)的二層連接擴展,提供運營優(yōu)化型解決方案。因此,OTV對于分布式數(shù)據(jù)中心的高效部署發(fā)揮著關(guān)鍵作用,有助于實現(xiàn)應(yīng)用可靠性和靈活的工作負載遷移。OTV是一項“MAC in IP”技術(shù)。通過使用MAC地址路由規(guī)則,OTV可提供一種疊加網(wǎng)絡(luò),能夠在分散的二層域之間實現(xiàn)二層連接,同時保持這些域的獨立性以及IP互聯(lián)的容錯性、永續(xù)性和負載均衡優(yōu)勢。
4.3.5 虛擬交換
虛擬交換就是利用虛擬平臺,通過軟件的方式形成交換機部件。跟傳統(tǒng)的物理交換機相比,虛擬交換機同樣具備眾多優(yōu)點。一是配置更加靈活,一臺普通的服務(wù)器可以配置出數(shù)十臺甚至上百臺虛擬交換機,且端口數(shù)目可以靈活選擇。例如,VMware的ESX一臺服務(wù)器可以仿真出248臺虛擬交換機,且每臺交換機預(yù)設(shè)虛擬端口可達56個。二是成本更加低廉,通過虛擬交換往往可以獲得昂貴的普通交換機才能達到的性能,例如微軟的Hyper-V平臺,虛擬機與虛擬交換機之間的聯(lián)機速度可達10 Gbit/s。
思科發(fā)布了針對VMWare的Nexus 1000V虛擬交換機,Nexus 1000V具備更多的網(wǎng)絡(luò)功能,例如Netflow流量控制、QoS、ERSPAN、VLAN 以及Access ControlList(ACL)的聯(lián)機控制等。該款虛擬交換機支持虛擬機的動態(tài)遷移,在虛擬機遷移的過程之中,原本對應(yīng)到該臺虛擬機從事管理的交換機設(shè)置,也會跟著一起遷移到其他ESX服務(wù)器的Nexus 1000V交換機上繼續(xù)使用。在管理上,Nexus 1000V的角色就如同安裝在交換機機箱內(nèi)的線路卡,其配置管理操作在上聯(lián)的Nexus系列物理交換機上完成,簡化了網(wǎng)絡(luò)配置管理操作。
5 結(jié)束語
云計算作為IT業(yè)界的一項技術(shù)和管理模式的創(chuàng)新,對數(shù)據(jù)中心的設(shè)計也提出了新的要求。在云計算數(shù)據(jù)中心設(shè)計過程中,需要關(guān)注虛擬化后帶來的性能、擴展性、可管理性等方面的要求,選擇合適的設(shè)備和技術(shù),從而實現(xiàn)云計算數(shù)據(jù)中心合理規(guī)劃和設(shè)計。
核心關(guān)注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務(wù)領(lǐng)域、行業(yè)應(yīng)用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務(wù)管理理念,功能涉及供應(yīng)鏈、成本、制造、CRM、HR等眾多業(yè)務(wù)領(lǐng)域的管理,全面涵蓋了企業(yè)關(guān)注ERP管理系統(tǒng)的核心領(lǐng)域,是眾多中小企業(yè)信息化建設(shè)首選的ERP管理軟件信賴品牌。
轉(zhuǎn)載請注明出處:拓步ERP資訊網(wǎng)http://www.ezxoed.cn/
本文標(biāo)題:IaaS云計算數(shù)據(jù)中心設(shè)計探討(下)
本文網(wǎng)址:http://www.ezxoed.cn/html/support/1112158310.html