欧美午夜精品一区二区三区,国产91麻豆免费观看,囯产亚洲日韩欧美看国产,亚洲国模精品一区,亚洲欧美日韩精品永久在线,亚洲国产成人精品久久久国产成人一区二区三区综合区精品久久久中文字幕一区 ,国产福利电影一区二区三区 ,欧美日韩亚洲综合一区二区三区

產品推薦

海瑞思Preciset機房空調
海瑞思Precise系列專為中小型機房設計的機房專用空調Precise...【詳細】
MPS 10-100 kVA UPS
MPS系列UPS設備確保任何類型的負載,最大限度的保護和電能質...【詳細】

聯系我們

服務熱線
010-62104284

地址:北京市密云區高嶺鎮政府辦公樓
王經理 13393261468
Q Q:514468705/1049705527
郵箱:jhcxkj@163.com

首頁 > 新聞中心 > 精密空調能耗超高的原因!

精密空調能耗超高的原因!

雙擊自動滾屏 發布者:精密空調 發布時間:2018-07-12 14:02:00 閱讀:次【字體:

       近年來,精密空調的運用率增大,但一起越來越多的企業發現,精密空調在帶來一些優點的一起,壞處日益突出,耗能超高,怎樣處理這種問題?

  技能領域:

  近年來跟著高熱密度核算機機房建造的開展,一方面多數機房仍沿襲原機房局址進行擴容而成;另一方面也有的機房是沿襲原始規劃而未能夠進行主設備擴容。這就會呈現運用原精密空調機組已跟不上機房建造開展的需求而發生機房冷卻才能不足量的現象;或是精密空調機組的裝備量超出了現有機房設備需求而發生機房冷卻才能過量的現象,這都會導致機房全體能耗之居高不下。

  據IDC猜測,到2008年IT收購本錢將與動力本錢相等。另一方面,數據中心的能耗中,冷卻又占了能耗的60%到70%。在接下來的幾年里,世界上一半左右的數據中心將受電力和空間的束縛,能耗會占到一個IT部分1/3的預算。故在數據動力與冷卻問題會議上,Gartner有限公司的副總MichaelBell說:“在2008年全世界一半的數據中心將由于低效的動力供給和冷卻才能不能到達高密度設備要求而過期。”并有安排猜測,在2000年全球第一波數據中心浪潮中建造的數據中心將有50%會在2008年開端重建。

  技能背景使用規模:

  機房精密空調機組使用于電子核算機機房是依照現行國家標準A級電子信息體系機房進行規劃的,其運轉工況為:23±2℃/50±10%Rh;對于核算機和數據處理機房用單元式空氣調節機現行國家標準查驗工況為23±1℃/55±4%Rh。

  而現有機房空調生產廠家所供給的機型其室內機回風口工況參數點的規劃多為24℃/50%Rh,在此工況下進行機房選型規劃的直接脹大式空調壓縮機COP值和整機SHR(顯熱比)值均較大,故機房建造進行空調規劃時多依照上述工況參數點進行選型。但是若對應到22℃/50%Rh的工況參數點的規劃會呈現:傳統直膨式空調機的壓縮機COP值同比下降約7~8%、而整機顯冷量比照原總冷量亦會下降8~19.5%(依據揭露的機房空調廠家數據表,直接脹大式空調不同的下送風機型顯冷量同比會下降到原總冷量的92%~80.5%);若是選用冷凍水式空調機組整機的顯冷量比照原顯冷量會下降13.2%~16.6%。但是機房空調的負荷絕大部分是核算機類高熱密度負荷,其全部為顯熱負荷。那么比照回風參數24℃/50%Rh的工況所規劃出來的空調機組,當運轉于22℃/50%Rh工況下同比添加的能耗大約是15%~25%(即為了給顯熱負荷降溫而使得直接脹大式機房空調機組壓縮機運轉時刻的同比延伸量;或意味著冷凍水式機房空調機組之外部冷凍水主機供應冷凍水時刻的延伸量也即相應能耗的添加量)。若繼續調低空調機運轉工況參數設定點,對應的能耗會呈非線性的添加;而且運轉工況參數設定的過低會導致機房空氣溫度低于露點溫度而呈現不可逆轉的濕度下降,當超越相對濕度設定下限后機房空調會主動執行加濕功用,由于電極式加濕器噴出的水霧會抵消掉機房空調很多的制冷量,到時機房空調的耗能會呈指數性的上升。

  現在核算機機房的建造模式,一般是沿襲原數據機房局址進行簡略的擴容而成。由于機房前期建造的時分現已對機柜和空調進行了布局,到達空調機組氣流安排對其時的機柜負荷是最佳的規劃;那么現在越是高集成度(更高的熱密度)的核算機服務器出場越會被安排在遠離空調機組的方位上。

  這樣勢必會形成在新的核算機服務器開機運轉時呈現此區域溫度超支的現象,故而必須將空調機組設定的回風溫度24℃調低。一般狀況是在刀片服務器出場后至少調低空調機組設定溫度2℃。對此形成的能耗就現已超越空調出廠標準的20%以上了。但是跟著刀片服務器的高度集成化,其散熱量現已到達了每個機架30KW之巨;甚至有的正常運轉機房在服務器機柜出風口測量到了47℃的高溫。終究機房面臨著核算機服務器等高熱密度負荷的不斷出場,只能一味的調低空調機的設定溫度值,致使機房內溫度低得像個冷庫相同。

  據研討安排UptimeInstitute在2006年對美國19個數據中心的研討中發現,數據中心的過度冷卻(overcooling)差不多到達實踐所需求的2倍。現在85%以上的數據中心機房存在過度制冷問題,對應的機房空調機組耗能也會比規劃工況添加能耗50%以上,終究形成機房空調居高不下的高額運轉費用。

  另一方面設備發熱量又與設備類型、類型,機房安頓有著很大聯系。據對一些機房做過的調研,發現有的設備發熱量并不大。例如某電信紐帶大樓在室外30℃、室內21℃干球溫度時的實踐冷負荷目標只有66W/m2,其間設備發熱很小。機房冷負荷遠遠小于慣例核算目標的165~222W/m2。[1]而實際中有的機房占地上積到達了396平方米,而真正需求機房空調的服務器和配線架負荷區域卻僅有60平方米。

  以上機房的建造,可能是依據電子核算機機房規劃規范(GB50174-93)按下列辦法進行主機房面積斷定的:

1.當核算機體系設備已選型時,可按下式核算:

A=K∑S(2.2.2-1)

式中A--核算機主機房運用面積(m2);

K--系數,取值為5~7;

 S--核算機體系及輔佐設備的投影面積(m2)。

2.當核算機體系的設備沒有選型時,可按下式核算:

A=KN(2.2.2-1)

式中K--單臺設備占用面積,可取4.5~5.5(m2v/臺);

N--核算機主機房內所有設備的總臺數。

 所以會發生上述機房內精密空調的裝備遠大于實踐核算機設備的需求之問題的存在。

  由于機房空調無法感知機房的服務器或通信網絡設備詳細需求量,故其制冷才能之過量會導致空調機組壓縮機頻頻發動,發生振動,終究也會形成機房空調高額的運轉費用。

  跟著數據中心(IDC)機房選用服務器虛擬化技能的很多使用,機房內高熱密度負荷勢必會呈現散熱門向要害服務器搬運的現象,到時可能會呈現機房內只呈現少數的高熱密度區域,其微環境需求會更加嚴峻。

  現有技能處理方案:

  據綠色網格(GreenGrid)安排的有關專家所給出以下的主張。以輔導怎樣提高數據中心能效。

  其間心理念是更好地冷卻過熱區域,而不糟蹋能量去冷卻現已冷卻的區域。

  詳細輔導方針:

  a)冷卻通道:熱通道規劃是為了促進有用活動一起將冷熱空氣流分隔,并恰當安頓空氣調節設備。

  b)為服務器運轉挑選動力經濟模式。

  c)選用動態核算流軟件(computationalfluiddynamics)對數據中心的空氣流進行模仿,并測驗不同的地上通風口方位和核算空間空氣調節單元方位。最優冷卻體系可使數據中心動力開銷節省25%。

  d)不管負荷大仍是小,冷卻體系的能耗是固定的。很好地利用將使其固定能耗下降。在保證添加的狀況下,將生產量與數據中心設備的冷卻需求相匹配。

  e)數據中心過熱門的直接冷卻與冷卻體系嚴密相關,但留意不要冷卻已冷卻區域。將冷卻空氣的通道減短。使數據中心規劃為服務器和存儲器機架的空氣流與房間空氣流相匹配,這樣就不會將電能糟蹋在從相反方歷來抽取空氣。

  f)選用刀片服務器和存儲器虛擬化來削減需求動力冷卻體系進行冷卻的物理設備的數量。這一起也削減了數據中心所占用的空間。

  g)選用更多的高能效照明設備(設備控制器或定時器),這能夠直接節省照明費用,并節省冷卻費用(由于照明設備的運用會導致其本身過熱)。

  h)改進機架內部的空氣流,使其穿過通道,這能夠經過裝備盲板阻隔空機架空間來完成。

  i)當選用專業工程辦法將冷卻用水直接輸送到機架以將電力體系和阻隔管道等的危險最小化。

  j)選用多核芯片來整合服務器能夠削減所需冷卻服務器的數量。購買更多的高效芯片并進行動力分級以削減待機功率,這樣可削減冷卻需求。

  k)假如可能,選用空氣調節設備運轉于冬季經濟模式。

  l)檢查單個的空氣調節單元是否相協調而且未進行相反作業。

  總歸其理念是削減全體的冷卻需求并考慮包含冷卻體系的全體開銷。應該直接針對機架內部的過熱門進行冷卻,一起將熱空氣排出由通風口排出。


?
在線咨詢 電話咨詢