2015/9/23

淺談現代資料中心綠能策略與手法

前言

資料中心守護著企業重要IT設備的運行,如伺服器、網路設備以及儲存設備等,在資料中心支援全球數十億人口上網的同時,也產生大量的機房能耗,因此,勢必要研擬具體的機房能效改善對策,才能真正實現有感節能。對於當前的資料中心經營者來說,必須採用高效率的機房經營方針,才能取得「環保」及「經濟」雙贏的好處。

提升資料中心能源效率的第一步,便是審慎評估電力使用效率(PUE, Power Usage Effectiveness),簡單來說,PUE就是資料中心之總電力除以IT使用電力,或是總設施能源除以IT設備能源。PUE是由Green Grid所召集的政府及產業領袖組成的專案小組所制定的一項指標,不僅信賴度高,而且可以用來檢驗機房的能源效率,可以廣為適用於一般資料中心,目的是建立一個「一致且可重複使用的衡量指標」,提供資料中心經營者持續監控並改善能耗狀況。根據Uptime Institute於2014年進行的調查研究顯示,業界平均PUE為1.7,高於2013年的1.67,但低於2012年的1.8,表示機房節能仍有改善空間(如圖1)。



圖1:資料中心平均PUE調查, 2011-2014
資料來源:2014 Data Center Industry Survey Results by Uptime Institute

受到近年來大數據、物聯網浪潮的推動,各地的機房建設持續進行,同時,在環保意識高漲的氛圍下,「機房節能」也成為了一門顯學。從客觀事實來看,首先,資料中心的電力支出佔總持有成本(TCO, Total Cost of Ownership)的一大部分,僅次於人力成本;其次,資料中心常背負著「不環保」的惡名(參考綠色和平組織年度評分),然而,實際上,以美國為例,資料中心僅消耗了總能源的百分之二,且低於全世界平均值,可見仍有許多機房採用節能手段達到節能減碳的目標。

截至目前為止,仍有許多資料中心尚未採用任何效率指標,導致資料中心的節能毫無標準可循。雖然PUE仍存有許多爭議,但是PUE值仍是衡量資料中心基礎設施效率的主要指導方針,而且對於擬定及執行資料中心的綠化策略也很有參考價值。


資料中心綠化策略

根據《自然氣候變化 (Nature Climate Change)》發表的一篇論文「低碳資料中心的特徵」表示,IT設備如:伺服器、儲存設備、通訊技術、基礎設施(風扇、冷卻、水泵、配電等),其本身的效率以及碳排放,是影響資料中心產生溫室氣體的主要因素。這篇論文提出一些建議,如果專注於能耗改善的部分,將可對資料中心的綠能計畫產生顯著的影響。

以下列舉七大資料中心的綠能策略,將有助於改善資料中心能耗,並優化PUE:

策略一:定期進行硬體稽核
全球IT巨擘如Facebook、Google及Apple持續投入研發來提升資料中心的效率,他們的做法可能看似很了不起,但是這裡所建議的第一個策略是屬於大部分企業都能做到的,就是例行性檢查既有的硬體設備。

資料中心普遍存在許多不必要的IT設備,所謂「休眠的伺服器」(comatose servers)指的是仍然插在機櫃裡,實際上卻已不再使用的伺服器,但是會佔據寶貴的機櫃空間,消耗大量能源,並且使PUE惡化。為了瞭解此問題的普遍性,Uptime Institute於2013年進行了一項相關調查,發現大約有半數的回覆者並未執行計畫性的檢查及拔除多餘的伺服器。此外,在美國EPA樣本研究(U.S. EPA sample study)中,大部分機房的現場並無法準確地監控所有基礎設施及IT負載,可見機房節能改善之路還很長。

以巴克萊銀行為例,該銀行於2013年拔除了9,124個多餘的伺服器之後,不僅減少了使用的電力、冷卻和機櫃空間,同時並擴大了計算能力以及節省了450萬美金的電費,可見減少伺服器的好處非常明顯。

除了IT設備的稽核,對於非IT的基礎設施,也必須做定期的檢核,例如機房的不斷電系統 (uninterruptible power supplies, UPS),有別於傳統的工頻單機UPS,當前的趨勢是採用高頻模組化UPS,為了達到機房節能,選用UPS時應該考慮以下兩大條件:

  • • 隨需擴容:模組化UPS可以配合機房擴容的腳步,適時增加電源模組的數量,不需要在機房建置初期投入大量的資金,並且不佔據多餘的機房空間,使機房業務逐步成長時,UPS電源仍可「無縫接軌」(圖2);除了增加電源模組,UPS也必須滿足多機並聯的需求,以因應機房規模擴大的可能性。

    圖2:模組化UPS滿足機房無縫擴容的需求


  • • 輕載高效:一般資料中心為了確保可靠度,會配置電源冗餘N+X,甚至配置2N雙母線,導致負載率大約在30-40%甚至更低,因此UPS所標榜的「滿載」高效率實際上是不太可能實現的,有鑑於此,市調機構Gartner在2013年的報告就指出,除了追求UPS滿載效率之外,也要關注20-100%負載率區間的效率曲線(如圖3),設法達到「輕載高效」的理想境界。以一台容量200kVA的高效率模組化UPS為例,考慮資料中心日間和夜間負載率的差異,相較於一般傳統UPS,高效率UPS可以省電5%左右(表1)。

    圖3:UPS效率曲線




表1:UPS電費試算與比較

策略二:例行測量PUE值
如前所述,PUE是量化能源效率的主要業界標準,大部分原因是其具有簡單性及可行性,但是在觀察的幾個行業中卻很少實施。不定期的紀錄並無法確實瞭解實際的能源使用狀況,所以業內人士不斷建議執行例行性的PUE檢測,以便監測資料中心PUE隨季節變化及其他因素而波動。此外,為了能即時精確量測總電力,並紀錄實際的PUE,必須在關鍵測量點安裝感應器,並記錄實際電力(kW及kVA),並且應該要記錄一段時期之內的能源使用狀況,才能做出最佳的分析(圖4)。



圖4:PUE值監測儀表板


策略三:更新硬體,提升伺服器效率
伺服器效率與PUE直接相關,而且是提升PUE的關鍵要素,但是想要正確估計伺服器效率,還必須考慮幾個因素。我們可以從CPU利用率出發,針對績效不佳的CPU,虛擬化技術(virtualization)可以大幅提升CPU績效及伺服器的效率,而不需要更新伺服器;此外,也應該將每一只機櫃的負載能力與消耗電力,列入效率的計算中。採用刀鋒伺服器(blade servers)是提高機櫃密度的一種手法(每一機櫃最多可容納1,024 CPU核心),也可以降低設施的冷卻及電力需求。

將實體伺服器合併與虛擬化,將可提高資料中心效率,IT管理人員應該在硬體升級時將此列入考慮。根據研究指出,合併伺服器的好處有:

  • • 平均每年每一伺服器最多可節省美金560元

  • • 減少熱量的產生及相關的冷卻成本

  • • 釋出多餘空間並擴大運算能力


值得注意的是,虛擬化技術及刀鋒伺服器會產生一個負面影響,亦即會產生額外的熱量及冷卻需求。目前有數種解決方案,例如「冷熱通道封閉」或是「機櫃式空調(列間空調)」等氣流管理手段,就是為了處理機房高密度負載的問題,請看以下策略四。



圖5: 高功率密度數據中心的冷通道封閉和列間冷卻技術


策略四:提升機房冷卻效率
冷卻是僅次於IT負載之外,最大的耗電來源,因此,安裝能源監控及測量機制非常重要,可以瞭解冷卻對於PUE的整體影響與改善的方法。

Google的做法
Google已是資料中心節能領域的佼佼者,具有令人稱羡的PUE 1.12,在最新的 Android Emotions 報導中指出,最新的Google AI產品正在嘗試找出能進一步降低PUE的方法。Google更在網誌 Efficiency: How others can do it.中,分享了資料中心經理人及經營者可用來降低PUE的五大手法,其中三項與提升機房冷卻效率有關的做法是:

  • • 優化氣流管理:設計良好的冷熱通道封閉,可避免熱空氣和冷空氣混合,以提升冷卻系統的效率。為了有效排除機房熱點,建立理想的熱能分布狀態,可以藉由適當地放置溫度感測器,利用電腦模擬工具找出熱點並加以排除。根據EPA之研究,有效的冷熱通道封閉系統,可減少25%的風扇能耗,以及20%的冰水主機能耗。

    圖6: 熱通道封閉技術實例

  • • 提高機房環境溫度:Google已打破了資料中心必須保持華氏70°的迷思,確認了冷通道可以在華氏80°的溫度下運轉,因此在提高溫度的同時,關閉再熱器和除濕機,便可以有效節約能源。

  • • 採用自然冷卻技術 (Free Cooling):空調系統的冰水主機會消耗大量的能源,可以視天候條件,選用自然冷卻系統,將外面的冷空氣吸進來,加以利用後再排放到外面去。其他自然冷卻的來源包括:引入外界的空氣、水蒸氣或設置大型的熱儲存器。


策略五:提高機房溫度
長久以來,機房IT人員受限於傳統機房溫度的迷思,不太願意提高機房溫度,然而,美國空調冷凍工程師學會(ASHRAE)最新發布的機房工作溫度建議,範圍修訂為18℃至27℃(64.4°F至80.6°F);除了溫度,ASHRAE也提高了濕度建議範圍。受惠於這樣的修訂,資料中心將可以創造更多冷卻成本的節約,也更能符合自然冷卻的條件。

就機房溫度而言,如果太過保守,維持機房低溫,將會使營運成本居高不下,造成PUE值較差或冷卻成本較高;此外,根據Intel一項研究數據顯示,機房環境溫度每提升1℃可以帶來4%的製冷成本節約。有鑑於此,一些高溫節能產品就應運而生,舉例如下:

  • • 高溫節能伺服器:「高溫」是指伺服器耐高溫能夠在5℃至47℃環境溫度下,無需空調製冷,能穩定運行,由於伺服器能適應更高的機房溫度,而帶來製冷能耗的減少,相對傳統伺服器而言,高溫節能伺服器具有耐高溫、低能耗、易部署等特點,對於機房節能也是一大功臣。

  • • 高溫冰水空調:一般機房內大多是屬於顯熱,只有很少數的潛熱,因此除濕的需求非常少,機房精密空調的入水溫度便可以從一般的7℃往上調升,在此情況下,冰水主機的製冷量增加,能效比改善,也就爭取更多空調節能的機會。


策略六:導入資料中心管理系統(DCIM)
為了協助資料中心經理人及經營者更有效、全面地管理資料中心, 資料中心基礎設施管理系統 (Date Center Infrastructure Management, DCIM) 就應運而生。DCIM可透過機房鳥瞰圖,協助IT經理人即時因應、事先規畫並管理可能的風險,並減少停機時間。如前所述,個別伺服器利用率低落是資料中心普遍存在的問題,DCIM可協助資料中心人員找出長期閒置的伺服器,加以重新配置,以提升效率,並準確測量資料中心資產及能源的使用狀況。

圖7: 資料中心管理系統(DCIM)電視牆與機櫃管理介面

策略七:利用純淨的再生能源
百分百純淨的能源是遙不可及的夢想,然而還是有許多企業用的是「混搭」策略來接近此理想目標,舉例來說,包括利用再生能源、就地發電以及遠距電網等等。IT大廠如Apple所安裝的55,000片太陽能板、eBay在猶他州Quicksilver工廠利用燃料電池,以及Microsoft利用風力和太陽能。中小企業或許可以與當地公用事業合作,取得乾淨的電力或再生能源,也可在新資料中心選址時,考慮設置在純淨能源公用事業的周邊地區。


結論

「資料中心綠化運動」需要發揮相當的創意,不應受到傳統思維的侷限。業界有許多案例均顯示機房節能可以帶來許多實質的好處,而PUE值可以作為一個能效指標的基礎,對於創造永續的綠色資料中心而言是非常重要的。Google、Facebook、Apple及Microsoft等IT大廠,皆已投資數百萬元進行綠色資料中心的研發,且透過驗證提出綠色資料中心最佳解決方案,能使資料中心的PUE接近理想值。業界一致認為必須全面稽核IT基礎設施以提升資料中心的效率,同時,一般企業可以透過例行測量PUE,以及善用管理工具(如DCIM)找出並修正IT低效率的部分,減少碳足跡排放,提高個別伺服器的使用率,最終達到PUE及ROI優化的目標。

新聞來源:不斷電系統及資料中心解決方案