欧美午夜精品一区二区三区,国产91麻豆免费观看,囯产亚洲日韩欧美看国产,亚洲国模精品一区,亚洲欧美日韩精品永久在线,亚洲国产成人精品久久久国产成人一区二区三区综合区精品久久久中文字幕一区 ,国产福利电影一区二区三区 ,欧美日韩亚洲综合一区二区三区

產品推薦

海瑞思Preciset機房空調
海瑞思Precise系列專為中小型機房設計的機房專用空調Precise...【詳細】
MPS 10-100 kVA UPS
MPS系列UPS設備確保任何類型的負載,最大限度的保護和電能質...【詳細】

聯系我們

服務熱線
010-62104284

地址:北京市密云區高嶺鎮政府辦公樓
王經理 13393261468
Q Q:514468705/1049705527
郵箱:jhcxkj@163.com

首頁 > 新聞中心 > 淺析:精密空調能耗超高的原因!

淺析:精密空調能耗超高的原因!

雙擊自動滾屏 發布者:精密空調 發布時間:2016-08-18 09:05:38 閱讀:次【字體:

近年來,精密空調的使用率增大,但同時越來越多的企業發現,精密空調在帶來一些好處的同時,弊端日益突出,耗能超高,怎么解決這種問題?從哪些方面入手?專家給出了以下答案:

技術領域:

近年來隨著高熱密度計算機機房建設的發展,一方面多數機房仍沿用原機房局址進行擴容而成;另一方面也有的機房是沿用原始設計而未能夠進行主設備擴容。這就會出現使用原精密空調機組已跟不上機房建設發展的需求而產生機房冷卻能力不足量的現象;或是精密空調機組的配置量超出了現有機房設備需求而產生機房冷卻能力超量的現象,這都會導致機房總體能耗之居高不下。

據IDC預測,到2008年IT采購成本將與能源成本持平。另一方面,數據中心的能耗中,冷卻又占了能耗的60%到70%.在接下來的幾年里,世界上一半左右的數據中心將受電力和空間的約束,能耗會占到一個IT部門1/3的預算。故在數據能源與冷卻問題會議上,Gartner有限公司的副總MichaelBell說:“在2008年全世界一半的數據中心將因為低效的動力供給和冷卻能力不能達到高密度設備要求而過時。”并有機構預測,在2000年全球第一波數據中心浪潮中建設的數據中心將有50%會在2008年開始重建。

技術背景應用范圍:

機房精密空調機組應用于電子計算機機房是按照現行國家標準A級電子信息系統機房進行設計的,其運行工況為:23±2℃/50±10%Rh;對于計算機和數據處理機房用單元式空氣調節機現行國家標準檢驗工況為23±1℃/55±4%Rh.

而現有機房空調生產廠家所提供的機型其室內機回風口工況參數點的設計多為24℃/50%Rh,在此工況下進行機房選型設計的直接膨脹式空調壓縮機COP值和整機SHR(顯熱比)值均較大,故機房建設進行空調設計時多按照上述工況參數點進行選型。但是若對應到22℃/50%Rh的工況參數點的設計會出現:傳統直膨式空調機的壓縮機COP值同比下降約7~8%、而整機顯冷量對比原總冷量亦會下降8~19.5%(根據公開的機房空調廠家數據表,直接膨脹式空調不同的下送風機型顯冷量同比會下降到原總冷量的92%~80.5%);若是采用冷凍水式空調機組整機的顯冷量對比原顯冷量會下降13.2%~16.6%.然而機房空調的負荷絕大部分是計算機類高熱密度負荷,其全部為顯熱負荷。那么對比回風參數24℃/50%Rh的工況所設計出來的空調機組,當運行于22℃/50%Rh工況下同比增加的能耗大約是15%~25%(即為了給顯熱負荷降溫而使得直接膨脹式機房空調機組壓縮機運行時間的同比延長量;或意味著冷凍水式機房空調機組之外部冷凍水主機供應冷凍水時間的延長量也即相應能耗的增長量)。若繼續調低空調機運行工況參數設定點,對應的能耗會呈非線性的增長;而且運行工況參數設定的過低會導致機房空氣溫度低于露點溫度而出現不可逆轉的濕度下降,當超過相對濕度設定下限后機房空調會自動執行加濕功能,由于電極式加濕器噴出的水霧會抵消掉機房空調大量的制冷量,屆時機房空調的耗能會呈指數性的上升。

現在計算機機房的建設模式,一般是沿用原數據機房局址進行簡單的擴容而成。由于機房早期建設的時候已經對機柜和空調進行了布局,達到空調機組氣流組織對當時的機柜負荷是最佳的設計;那么現在越是高集成度(更高的熱密度)的計算機服務器進場越會被安排在遠離空調機組的位置上。

這樣勢必會造成在新的計算機服務器開機運行時出現此區域溫度超標的現象,故而必須將空調機組設定的回風溫度24℃調低。一般情況是在刀片服務器進場后至少調低空調機組設定溫度2℃。對此造成的能耗就已經超過空調出廠標準的20%以上了。然而隨著刀片服務器的高度集成化,其散熱量已經達到了每個機架30KW之巨;甚至有的正常運行機房在服務器機柜出風口測量到了47℃的高溫。最后機房面臨著計算機服務器等高熱密度負荷的不斷進場,只能一味的調低空調機的設定溫度值,致使機房內溫度低得像個冷庫一樣。

據研究機構UptimeInstitute在2006年對美國19個數據中心的研究中發現,數據中心的過度冷卻(overcooling)差不多達到實際所需要的2倍。目前85%以上的數據中心機房存在過度制冷問題,對應的機房空調機組耗能也會比設計工況增加能耗50%以上,最終造成機房空調居高不下的高額運行費用。

另一方面設備發熱量又與設備類型、型號,機房布置有著很大關系。據對一些機房做過的調研,發現有的設備發熱量并不大。例如某電信樞紐大樓在室外30℃、室內21℃干球溫度時的實際冷負荷指標只有66W/m2,其中設備發熱很小。機房冷負荷遠遠小于常規計算指標的165~222W/m2.[1]而現實中有的機房占地面積達到了396平方米,而真正需要機房空調的服務器和配線架負荷區域卻僅有60平方米。

以上機房的建設,可能是根據電子計算機機房設計規范(GB50174-93)按下列方法進行主機房面積確定的:

1.當計算機系統設備已選型時,可按下式計算:

A=K∑S(2.2.2-1)

式中A——計算機主機房使用面積(m2);

K——系數,取值為5~7;

S——計算機系統及輔助設備的投影面積(m2)。

2.當計算機系統的設備尚未選型時,可按下式計算:

A=KN(2.2.2-1)

式中K——單臺設備占用面積,可取4.5~5.5(m2v/臺);

N——計算機主機房內所有設備的總臺數。

所以會產生上述機房內精密空調的配置遠大于實際計算機設備的需求之問題的存在。

由于機房空調無法感知機房的服務器或通信網絡設備具體需求量,故其制冷能力之超量會導致空調機組壓縮機頻繁啟動,產生振蕩,最終也會造成機房空調高額的運行費用。

隨著數據中心(IDC)機房采用服務器虛擬化技術的大量應用,機房內高熱密度負荷勢必會出現散熱點向關鍵服務器轉移的現象,屆時可能會出現機房內只出現少數的高熱密度區域,其微環境需求會愈加嚴峻。

現有技術解決方案:

據綠色網格(GreenGrid)組織的有關專家所給出以下的建議。以指導怎樣提高數據中心能效。

其中心理念是更好地冷卻過熱區域,而不浪費能量去冷卻已經冷卻的區域。

具體指導方針:

a)冷卻通道:熱通道設計是為了促進有效流動同時將冷熱空氣流分開,并恰當安置空氣調節設備。

b)為服務器運行選擇動力經濟模式。

c)采用動態計算流軟件(computationalfluiddynamics)對數據中心的空氣流進行模擬,并嘗試不同的地面通風口位置和計算空間空氣調節單元位置。最優冷卻系統可使數據中心能源支出節約25%.

d)無論負荷大還是小,冷卻系統的能耗是固定的。很好地利用將使其固定能耗降低。在保證增長的情況下,將生產量與數據中心設備的冷卻需求相匹配。

e)數據中心過熱點的直接冷卻與冷卻系統緊密相關,但注意不要冷卻已冷卻區域。將冷卻空氣的通道減短。使數據中心設計為服務器和存儲器機架的空氣流與房間空氣流相匹配,這樣就不會將電能浪費在從相反方向來抽取空氣。

f)采用刀片服務器和存儲器虛擬化來減少需要動力冷卻系統進行冷卻的物理設備的數量。這同時也減少了數據中心所占用的空間。

g)采用更多的高能效照明設備(安裝控制器或定時器),這可以直接節約照明費用,并節約冷卻費用(因為照明設備的使用會導致其自身過熱)。

h)改進機架內部的空氣流,使其穿過通道,這可以通過配置盲板隔離空機架空間來實現。

i)當采用專業工程方法將冷卻用水直接輸送到機架以將電力系統和隔離管道等的風險最小化。

j)采用多核芯片來整合服務器可以減少所需冷卻服務器的數量。購買更多的高效芯片并進行動力分級以減少待機功率,這樣可減少冷卻需求。

k)如果可能,采用空氣調節裝置運行于冬季經濟模式。

l)檢查個別的空氣調節單元是否相協調并且未進行相反工作。

總之其理念是減少整體的冷卻需求并考慮包括冷卻系統的整體支出。應該直接針對機架內部的過熱點進行冷卻,同時將熱空氣排出由通風口排出。

關鍵詞:精密空調http://lbjsjzl.com/


?
在線咨詢 電話咨詢