引言
我國已步入信息時代,企業(yè)的業(yè)績和發(fā)展戰(zhàn)略規(guī)劃越來越依賴“信息”,企業(yè)之間的競爭變成了“信息競爭”。很多企業(yè)的數據中心不單是進行日常的數據存儲和計算,而是需要支撐整個企業(yè)業(yè)務系統(tǒng),一旦數據中心癱瘓,整個企業(yè)的研發(fā)、生產、銷售將面臨崩潰。數據中心因企業(yè)發(fā)展帶來的壓力也越來越大。
1 目前國內數據中心普遍存在的問題
a.現有數據中心“超負荷使用”,無論是在場地面積、供電能力和制冷能力等各個方面,均不能滿足新系統(tǒng)的上線及原有系統(tǒng)的擴充需要。
b.現有數據中心大多是幾年前新建或者改建的,運行中的安全等級不夠高,存在諸多風險和隱患,無法滿足當前IT技術和數據中心業(yè)務發(fā)展的需要
c.數據中心運行成本高,規(guī)模擴張后隨之而來的是能耗支出的大幅增長。2009年中國聯(lián)通公司全國的數據中心能耗光電費支出就達5.2億,電費支出中,制冷占的比例超過所有輔助設備能耗的70%,占整個數據中心所消耗電能的40%~50%國內大多數數據中心PUE介于2.5~3.0,能源利用效率低、耗電量大,電費支出超過基礎設施建設成本,占據企業(yè)IT成本的第二位,與“綠色”、“低碳”理念相悖
d.沒有建立備份數據中心和有效的備份體系,一旦出現意外事故,將可能導致業(yè)務的全面停頓。
e.擴展不靈活,F有的數據中心一般都是根據當時建筑的條件來劃分各類功能分區(qū)的,在當時發(fā)展前景不明,無法預見企業(yè)業(yè)務發(fā)展變化的情況下,數據中心只能采用小步走,試探性的建設方式,后期逐步調整。因此使用過程中逐漸暴露出數據中心建設周期長、部署密度低、擴容不方便、無法適應新業(yè)務等諸多問題
圖1 數據中心建設成本
圖2 數據中心運行成本
2 數據中心的幾個關鍵問題
如何認識當前數據中心存在的不足,并在設計上提供解決方案呢?筆者認為應首先了解數據中心的幾個關鍵問題,并在規(guī)劃設計階段就解決上述問題。
2.1什么是PUE、DCiE
PUE即能量使用效率,是PowerUsageEffectivenes的簡寫,是評價數據中心能源效率的一個指標,PUE:數據中心總設備能耗/IT設備能耗,PUE是一個比率,基準是2,越接近1表明數據中心能效水平越高。
DCiE即數據中心基礎設施效率,是DataCenterinfrastructureEfficiencv的簡寫。其值是PUE的倒數。DCiE=IT設備能耗/數據中心總設備能耗×100%。
2.2數據中心建設成本和運營成本
圖1是中國聯(lián)通一個PUE為2.0的數據中心的建設成本。由圖1可見,數據中心建設成本中電力設備和空調系統(tǒng)投資比重達到65%。IBM的資料顯示,假設一個2000m2的數據中心,其IT設備以每年10%的速度增長,在數據中心壽命20年內運行成本是投資成本的3~5倍,而數據中心運營成本中75%將是能源成本,見圖2。來自2009年IDC的調查顯示,全球數據中心供電和制冷方面的費用一直在增長,見圖3。
圖3 全球在服務器、供電和制冷、管理方面的費用
2.3數據中心能耗分布
一個PUE為2.0的數據中心電力消耗如圖4所示(數據來源:EYPMissionCriticalFacilitiesInc.),當IT設備能耗占50%時,為保證IT設備正常工作環(huán)境所需要的空調制冷設備耗電占整個數據中心能耗的38%。由于大多數數據中心中UPS都是工作在10%~30%負載率,UPS的內部損耗率將占整個數據中心的7%。
圖4 數據中心電能消耗
數據中心機房的能耗第一大戶是由服務器、存儲設備和網絡通信設備等構成的IT設備系統(tǒng)。它們所產生的功耗約占數據中心總功耗的50%左右。其中服務器型的設備功耗為40%左右,另外的1O%功耗基本上由存儲設備和網絡通信設備所均分。由此可見,IT設備本身的功耗大小決定了整個數據中心的功耗大小。因此,解決數據中心節(jié)能降耗問題的關鍵在于能否正確地選擇IT設備,選用真正具有節(jié)能效果的IT產品。
2.4數據中心規(guī)劃設計制約模型
數據中心規(guī)劃階段最重要的是IT規(guī)劃,IT規(guī)劃是數據中心建設的前提和依據,因為IT系統(tǒng)定位將決定數據中心的等級、建筑空間、信息路由和場地布局等。這是企業(yè)決策者和IT規(guī)劃部門應該首先達成的共識,IBM公司一直倡導“從IT的角度來幫助業(yè)主建造數據中心”。這種理念,其成功的案例遍布全球。
影響數據中心規(guī)劃的還有一個容量因素,即用電容量、建筑空間容量和空調制冷容量。這三個容量從不同方面限制了數據中心的規(guī)劃方案,把三者之間的關系比喻成三維坐標的不同維度,看似相互獨立卻互相影響和互相制約。在一個數據中心用電最大容量確定的情況下,就可以根據典型數據中心的特征,或者PUE等得出數據中心IT設備的最大用電量、負荷密度、制冷容量和建筑面積。反之亦然,制冷量影響數據中心氣流組織形式、建筑層高、IT設備的選型、機柜的發(fā)熱密度和IT設備的用電量。如何在確定的制冷量需求下盡可能減少制冷系統(tǒng)對電能的需求是每個設計人員必須考慮的。
2.5數據中心熱負荷特點
IT設備散熱量大且密度集中,一個5kW的機柜散熱面積只有600mmx1200mm,按照一般機房機柜占用房間面積5mz計算,則機房平均散熱密度將大于1kW/m。
IT設備散濕量很少,數據機房的散濕主要來自進入機房的維護人員和滲入的室外空氣,因此高熱量、小散濕量的環(huán)境決定機房制冷空調處理空氣的過程近似為等濕降溫過程。
機房空調送風焓差小、風量大,為防止IT設備結露,需要提高機房空調系統(tǒng)的送風溫度。但要保證如此大量的IT設備散熱,必然增大通風量,機房空調換氣次數(≥30次/h)明顯大于舒適性空調的5~10次/h。
3 新一代數據中心規(guī)劃要點
新一代數據中心定義為“基于標準構建模塊,通過模塊化軟件實現24h×7無人值守計算與管理,并以供應鏈方式提供共享的基礎設施、信息與應用等IT服務”。新一代數據中心需要利用最新的IT技術、解決方案與服務來實現,如模塊化技術、服務器和存儲虛擬化、刀片技術、數據中心自動化等
3.1數據中心模塊化
所謂模塊化數據中心是指每個模塊具有獨立的功能、統(tǒng)一的輸入輸出接13,不同區(qū)域的模塊可以互相備份,通過相關模塊的排列組合形成一個完整的數據中心。模塊化數據中心包含功能分區(qū)模塊化和基礎設施系統(tǒng)模塊化兩方面。
功能分區(qū)模塊化是指每個模塊中包含1個數據機房、2個空調區(qū)域子模塊、1個電力室、1個電池室、1個鋼瓶間等子模塊,每個模塊都能實現獨立的功能。
基礎設施系統(tǒng)模塊化是指合理規(guī)劃和安排各項信息化基礎設施,形成良好的物理環(huán)境,使得各種業(yè)務、應用系統(tǒng)和數據都能不受約束地實現有效配合。例如從市電引入至機架電源輸入端,具備獨立的供電能力和輸入輸出接口,且模塊間能實現互相備份的系統(tǒng)稱之為一個完整的供電系統(tǒng)模塊,這種供電系統(tǒng)稱之為模塊化供電系統(tǒng)。
數據中心的標準化、模塊化技術提高了部署速度。便于合理配置系統(tǒng)結構,其靈活性為數據中心邊成長邊投資提供了條件,設備的標準化可以實現批量生產并進行預連接測試,提高了設備的交貨、安裝、系統(tǒng)調試的速度。
數據中心的標準化、模塊化在機房擴展時可使IT設備的空間配置達到最佳狀態(tài),無需重新對整個系統(tǒng)進行工程設計,在調試時也無需關閉關鍵設備。模塊化組件可熱插拔,便于重新排列時重新連接。標準化、模塊化技術可以提高數據中心系統(tǒng)的可靠性,減少平均故障恢復時間,也減少了人為的操作失誤,提高可用性。圖5和圖6反映了模塊化數據中心適應用戶的水平增長和垂直增長模式。
圖5 模塊化數據中心的水平增長
圖6 模塊化數據中心的垂直增長
3.2業(yè)務模式走向虛擬化
在新一代數據中心,所有的服務器、存儲設備、網絡均可通過虛擬化技術形成虛擬共享資源池,從而更加靈活和充分有效地使用資源。通過服務器虛擬化、存儲虛擬化、網絡虛擬化、應用虛擬化和數據中心虛擬化等解決方案,不僅可以幫助企業(yè)減少服務器數量、優(yōu)化資源利用率、簡化管理,更主要是幫助企業(yè)實現動態(tài)IT基礎設施環(huán)境,從而降低成本,快速響應業(yè)務需求的變化等。虛擬化是新一代數據中心與傳統(tǒng)數據中心的最大差異。
3.3節(jié)能服務器、節(jié)能存儲設備和刀片服務器大量使用
數據中心IT設備是能耗大戶,而服務器最大的能耗來自芯片,單顆Intel至強處理器的功耗為80~95W,有的達130W。芯片廠商一改之前提高運算速度的策略,轉而增加內核數。即采用多核的X86芯片技術提升處理能力,從而降低芯片數量的增加。因此,在短短幾年時間里,我們見證了處理器從2核、4核、6核、8核,直至12核的飛速發(fā)展。服務器整機生產廠商紛紛推出各種“綠色”產品與以往服務器相比,當前的服務器無論在性能、計算能力上都可“以一當十”,而能耗在不斷降低。
不僅如此,在硬盤、風扇、電源等配件上,節(jié)能技術屢有突破:①電源方面,服務器廠商采用高效電源。如戴爾采用智能節(jié)能技術,可在性能增加的同時降低能耗。②風扇方面,IBM引入了高效率的雙段式對轉風扇,它比傳統(tǒng)的風扇設計節(jié)能40%。③在硬盤方面,機架服務器更多采用的是HDD2.5英寸小硬盤,相比3.5寸大硬盤,有近一半電能的節(jié)省。不僅如此,固態(tài)硬盤開始在服務器中亮相,與普通HDD硬盤相比,在能耗上,固態(tài)硬盤的能耗比HDD硬盤低4/5。
表1展示了IBM一款刀片服務器與1U(U是一種表示服務器外部尺寸的單位,是unit的縮略語,1U=4.445cm)機架式服務器的比較,不但同樣的處理能力下占用的機架空間少42%,而且節(jié)能44%。
表1刀片服務器與1U機架式服務器比較
3.4制冷體系從房間制冷轉向隨需制冷
傳統(tǒng)的數據中心一般按照整個數據機房IT設備總的發(fā)熱量統(tǒng)一考慮制冷系統(tǒng),稱之為“房間級制冷”這種制冷體系只適用于安裝機架式或非機架式低負載密度IT設備的數據中心,整個機房的制冷體系需要仔細考慮IT設備負載的分布情況,做好氣流組織分析。當機房內增加一列或者單個高密度機柜時,氣流組織形式就得重新設計,這種房間級制冷體系適應性稍差,經常會出現局部熱點或過度制冷的情況。
新的數據中心制冷方案是隨需而變的制冷體系,可以實現房間級、行列級甚至機柜級、服務器級制冷,隨IT負載的變化可靈活布置制冷設備,提供不同制冷能力。
3.5垂直送風模式不適應高密度數據中心需要
從垂直送風氣流組織形式的數據中心所采用的送風地板參數可知,單塊送風地板的極限制冷量是5kW,超過此功率密度的數據中心如果采用垂直模式送風,服務器將因為得不到足夠的冷風而強制從頂部抽進回風出現“廢氣再循環(huán)”現象,從而出現機框頂部服務器過熱情況。封閉冷通道/熱通道實現冷熱通道完全隔離的“冷池”/“熱池”+下送風模式,可以在原來的制冷能力上再提高40%~100%大于10kW/機柜的負荷密度則需要采用“下送風+“冷池”+導流板+強制送風風機”的綜合氣流組織模式,或者采用“水平送風”、“液體冷卻”等新的數據中心制冷方式。
4 結語
數據中心工程是涉及多學科的一項復雜工程,作為規(guī)劃設計者應首先認識數據中心的IT設備及其特點,了解IT技術的發(fā)展趨勢,才能規(guī)劃出真正意義上適應未來企業(yè)發(fā)展需要的數據中心。從“IT的角度”出發(fā)規(guī)劃設計數據中心是解決當前國內數據中心普遍存在問題的捷徑。
核心關注:拓步ERP系統(tǒng)平臺是覆蓋了眾多的業(yè)務領域、行業(yè)應用,蘊涵了豐富的ERP管理思想,集成了ERP軟件業(yè)務管理理念,功能涉及供應鏈、成本、制造、CRM、HR等眾多業(yè)務領域的管理,全面涵蓋了企業(yè)關注ERP管理系統(tǒng)的核心領域,是眾多中小企業(yè)信息化建設首選的ERP管理軟件信賴品牌。
轉載請注明出處:拓步ERP資訊網http://www.ezxoed.cn/
本文標題:數據中心設計要點簡析