欧美午夜精品一区二区三区,国产91麻豆免费观看,囯产亚洲日韩欧美看国产,亚洲国模精品一区,亚洲欧美日韩精品永久在线,亚洲国产成人精品久久久国产成人一区二区三区综合区精品久久久中文字幕一区 ,国产福利电影一区二区三区 ,欧美日韩亚洲综合一区二区三区

產品推薦

海瑞思Preciset機房空調
海瑞思Precise系列專為中小型機房設計的機房專用空調Precise...【詳細】
MPS 10-100 kVA UPS
MPS系列UPS設備確保任何類型的負載,最大限度的保護和電能質...【詳細】

聯系我們

服務熱線
010-62104284

地址:北京市密云區高嶺鎮政府辦公樓
王經理 13393261468
Q Q:514468705/1049705527
郵箱:jhcxkj@163.com

首頁 > 新聞中心 > 數據中心過度冷卻問題令人關注

數據中心過度冷卻問題令人關注

雙擊自動滾屏 發布者:精密空調 發布時間:2015-08-31 11:27:04 閱讀:次【字體:

應對天氣酷熱的最好方法是盡可能少地去做;這個道理連蜥蜴都知道,所以想讓數據中心變得更冷的管理人員,采取過度的制冷措施只能是浪費能源。

然而還是有很多數據中心都在這么做,一直保持過多工作量和過度的制冷。在這個過程中,他們在浪費大量的電能,具有諷刺意味的是,這會導致全球變暖和融化地球的極地冰蓋。

磁帶時代的冷卻

數據中心的制冷歷史可以追溯到20世紀50年代,當時磁帶驅動器無法忍受高溫和高濕環境,在通過穿孔卡時會粘在一起,致使系統崩潰。而我們雖然不再處于那個時代,但目前許多數據中心仍然有過度的冷卻措施與不必要的冷卻制度,一直將數據中心的環境溫度嚴格控制在21°C(70°F)。

當ASHRAE(美國供暖學會,制冷與空調工程師協會)定義特定推薦的服務器入口溫度后,現在設定為27°C(80°F)。如今事情開始改變,并增加了更廣泛接受的可靠性套件。

如今,一些大規模數據中心注意到了這一點,并通過了運行在更高的溫度的過程試驗。但是,大多數的企業數據中心在此方面嚴重滯后。

2015年初,調查機構IDC在美國調查了404位數據中心經理,這些經理每人至少管理100臺物理服務器,并擁有平均120萬美元的IT預算。根據調查,75%的數據中心工作溫度低于24℃,只有5%的數據中心工作在27℃或27℃以上。

這些數據中心設施的PUE(能源使用效率)為2.4至2.8之間,這意味著IT設備電源的電源消耗沒有達到全部設備的60%至65%。

這兩個結果令人震驚。IDC發現這些IT管理人員在冷卻方面的支出預算為總預算的10%,在電力和冷卻方面的預算為24%。因此,各公司每年在冷卻方面的支出預算大部分可能是多余的。

其他要考慮的事實是,雖然高效的網絡規模云服務提供商獲得了媒體的關注,但他們只是全球數據中心的一小部分。至少,目前全球有一半以上的數據中心制冷過度。這些會影響全球的碳排放,而這些都是需要改變的數據中心。

偏執狂,還是只是小心?

那么,為什么數據中心的溫度還是那么低?關鍵設施咨詢的伊恩•比特林是毫無疑問知道是恐懼驅使它:“這是偏執狂的想法,人們過度規避風險。”

而下面這種說法可能更加合理,至少有一項研究發現,提高空氣入口溫度實際上增加了冷卻電能消耗。

施耐德電氣高級研究分析師維克多•阿弗拉爾對一項研究進行了描述,他比較了芝加哥、邁阿密以及西雅圖的數據中心在不同的溫度下的冷卻電能消耗量。“我們發現,高于27℃的數據中心冷卻耗費了更多的能源和資本開支。”

施耐德電氣的研究即將公布,這個結果是與一個具有標準的冷水機組數據中心進行比較的,之所得出令人驚訝的結果,也可能與系統的復雜性有關。在較高的溫度下,服務器風扇可以發揮作用,讓周圍的空氣流動消耗了更多的電能。

技術選擇

如果你看到這一點,你就需要知道你的技術選擇。我們都是從使用傳統空調壓縮機的冷卻設備,通常被稱為“直接膨脹(DX)單元”來開始認識冷卻系統的。

保持入口溫度在24°C以下是偏執狂

在大多數地區,沒有其他的方式來保持數據中心的低溫,許多人仍然認為保持低溫是必要的,在許多地方仍有DX與其他制冷方式混合,以保持數據中心極端條件。

如果用戶擁有這樣的數據中心,在考慮改變冷卻技術之前,先要消減能源法案。ASHRAE指出用戶可以提高服務器的入口空氣溫度,從而減少了冷卻電能。但如果這樣做,用戶應該知道服務器的風扇將要做什么。

如果讓入口溫度上升到27°C,服務器后面的熱通道溫度將約為35°C。因此要確保所有連接器都在系統的前面,因為沒有人考慮在熱通道設計上花費更多的時間。

其次,任何冷卻系統更有效地工作時,它是工作在高溫差(時間差)。這有些稍微違反直覺,但其基本熱力學的原則是熱差越大,驅動力更大。

這就是為什么可以很好地遏制服務器背面出來的熱風的原因,熱通道遏制裝置意味著冷卻系統的工作就是冷卻需要冷卻的空氣。

比特林表示,一旦用戶完成這一切,其DX冷卻系統會做更少的工作,就可以得到大約1.16的局部PUE(pPUE)。另外,冷凍水系統(其中制冷機組的冷卻水分配使用)的pPUE可以下降到1.12。

不建議采用DX冷卻技術

但你真的需要DX嗎?根據ASHRAE發布的地圖顯示,全球各地的氣候足夠涼爽.因此,外部空氣可用于常年來冷卻數據中心。美國大部分地區在此區域中,而在英國,其干球溫度記錄為34℃,最高濕球溫度(蒸發)為23℃。

這就是“外部空氣”冷卻,“自然”的冷卻或是“絕熱”冷卻。這些冷卻意味著不使用空調。有時將外界空氣過濾,直接通過數據中心(“直接”自由冷卻),有時設置一個二級電路(“間接”自然冷卻)。當外界溫度較高時,加入水蒸發的冷卻盤也是是必要的。

比特林表示,采取這些冷卻措施可能讓數據中心達到1.05的PUE,但也有一些并發癥。一個問題是,PUE取決于數據中心的利用率。如果有閑置的服務器,這樣可以提高效率,但絕熱冷卻有一個相反的趨勢:“在部分負荷下,絕熱變得更好,”他說。這意味著,如何負載超過一定閾值,追求更低的PUE可能適得其反。

PUE并不是一切

施耐德電氣的阿弗拉認為:“PUE是數據中心行業評判能源效率的標準,但重要的是不要盲目追求PUE。”在他給的例子中,當服務器風扇關閉時,即使數據中心整體用于冷卻電能消耗不斷上升,其效率越來越差,數據中心PUE仍會下降。

阿弗拉爾警告說,絕熱冷卻套件可能會引發可用性的擔憂。在實際的情況下,絕熱單元通常又大又重,在改造老舊數據中心時會非常棘手。而新建的數據中心會盡量將其部署在屋頂上。

當服務器變得更加溫暖時,其冷卻問題看起來很復雜嗎?這一切都歸結為保持冷靜的頭腦和精確的計算。

關鍵詞:機房空調http://lbjsjzl.com/


?
在線咨詢 電話咨詢