欧美午夜精品一区二区三区,国产91麻豆免费观看,囯产亚洲日韩欧美看国产,亚洲国模精品一区,亚洲欧美日韩精品永久在线,亚洲国产成人精品久久久国产成人一区二区三区综合区精品久久久中文字幕一区 ,国产福利电影一区二区三区 ,欧美日韩亚洲综合一区二区三区

產品推薦

海瑞思Preciset機房空調
海瑞思Precise系列專為中小型機房設計的機房專用空調Precise...【詳細】
MPS 10-100 kVA UPS
MPS系列UPS設備確保任何類型的負載,最大限度的保護和電能質...【詳細】

聯系我們

服務熱線
010-62104284

地址:北京市密云區高嶺鎮政府辦公樓
王經理 13393261468
Q Q:514468705/1049705527
郵箱:jhcxkj@163.com

首頁 > UPS電源 > UPS不間斷電源 > 淺談數據中心基礎設施整體解決方案的發展

淺談數據中心基礎設施整體解決方案的發展

雙擊自動滾屏 發布者:精密空調 發布時間:2016-04-06 09:16:19 閱讀:次【字體:

隨著云計算、大數據的迅猛發展,數據連接一切成為未來趨勢,數據中心作為信息傳遞的物理載體,在各行各業發揮著越來越重要的核心作用。數據中心布置著大量的服務器、交換機等IT設備,為保障IT設備的穩定運行,需要一套環境控制系統,提供一個穩定的運行環境,以保證數據中心的溫度、濕度、潔凈度等保持在較小范圍內波動。

  1、數據中心為什么需要制冷

數據中心大量使用服務器等IT設備,其核心器件為半導體器件,發熱量很大,以主要的計算芯片CPU為例,其發展速度遵循著名的摩爾定律,即半導體芯片上的晶體管數(密度)大約每兩年就翻一番。除CPU外,計算機的其他處理芯片,如總線、內存、I/O等,均是高發熱器件。當前,1U高(約44.4mm)的雙核服務器的發熱量可達1000W左右,放滿刀片式服務器的機柜滿負荷運轉,發熱量可達20KW以上。以服務器為例,其功率密度在過去的10年中增長了10倍,這個數據基本意味著單位面積的發熱量也增加了10倍。IT設備持續運行發熱,需要制冷設備保證環境的穩定。隨著數據中心的發展及單位面積功率的提升,數據中心制冷方式也不斷演進與發展。

  2、環境對數據中心IT設備的影響

(1)溫度過高:有資料表明,環境溫度每提高10℃,元器件壽命降低約30%~50%,對于某些電路來說,可靠性幾乎完全取決于熱環境。

(2)溫度過低:低溫同樣導致IT設備運行、絕緣材料、電池等問題。機房溫度過低,部分IT設備將無法正常運行。

(3)濕度過高:數據中心濕度過高容易造成“導電小路”或者飛弧,會嚴重降低電路可靠性。

(4)濕度過低:在空氣環境濕度過低時,非常容易產生靜電,IT類設備由眾多芯片、元器件組成,這些元器件對靜電都很敏感,根據Intel公司公布的資料顯示,在引起計算機故障的諸多因素中,靜電放電是最大的隱患,將近一半的計算機故障都是由靜電放電引起的。靜電放電對計算機的破壞作用具有隱蔽性、潛在性、隨機性、復雜性等特點。

(5)灰塵潔凈度:除溫濕度外,數據中心小顆粒污染物具有腐蝕電路板、降低絕緣性能、影響散熱等危害,灰塵對IT類設備是更厲害的殺手。

3、傳統數據中心制冷方式的選擇

傳統數據中心采用房間級制冷,所謂房間級制冷,就是空調機組與整個機房相關聯,并行工作來處理機房的總體熱負荷,通常見到的布置如下圖1及圖2所示:

圖1自然送風方式

圖2地板下送風方式

傳統數據中心機房,設備量較少,功率較低,布置較分散,沒有做任何氣流組織管理和設計,空調直接布置在機房內部,通常機房氣流較為紊亂(如圖3),容易存在局部熱點和局部冷點,但是鑒于傳統數據中心功率密度較低,一般情況下,通過增大空調的配置,機房也能長期穩定運行,但是造成了極大的能源浪費。

圖3傳統機房氣流云圖

此階段,通常數據中心送回風方式為空調下部送風及地板下送風,上回風的方式。這種送回風方式很多情況下無法充分利用空調的全部制冷容量,當空調機組送風時,很大一部分冷空氣繞過IT負載,直接返回空調時,就會發生這一現象,同時自然送風方式沒有做任何的氣流組織的規劃和設計,冷熱氣流極易容易混合,這些繞過空調的氣流和混合的氣流對負載的冷卻沒有幫助,實際上降低了總制冷容量,導致空調利用率和制冷效率都比較低。隨著數據中心功率密度的提升,傳統數據中心送回風方式(如圖1)變得不能滿足發熱設備散熱需求。

在傳統的“房間級”制冷方案中,為減少冷熱混合及提高空調制冷利用率,經常用到的解決方案為在數據中心機房內鋪設靜電地板,靜電地板高度為20-100cm,有些甚至高達2m,將機房專用空調的冷風送到靜電地板下方,形成一個很大的靜壓箱體(如圖2),靜壓箱可減少送風系統動壓、增加靜壓、穩定氣流、減少氣流振動等,再通過通風地板(如圖4)將冷空氣送到服務器機架上,回風可通過機房內地板上空間或專用回風道回風。

圖4地板下送風圖示

為了避免地板下送風阻塞問題反生,有兩個方法:一是保障合理的地板高度,很多機房已經將地板高度由原來的300mm調整到400mm乃至600-1000mm,附之以合理的風量、風壓配置,以及合理的地板下走線方式,可以保證良好的空調系統效率;二是采用地板下送風與走線架上走線方式。

這種氣流組織管理使送風效果及機房整體建設相較于自然送風模式有了進一步改善和提高。但是仍然會存在混風問題,也會限制單機柜的功率密度布置。

  4、數據中心封閉冷通道制冷方式的選擇

隨著數據中心功率密度的增加,房間級制冷采用冷(熱)通道氣流遏制對氣流組織進行管理,以防止冷氣流不經過服務器而直接返回到空調等問題的發生。熱通道與冷通道都能減少數據中心的氣流混合,但建議采用冷通道氣流遏制,因為實施起來比較簡便。

冷通道封閉技術:冷通道封閉技術是在機柜間構建專門限于機柜設備制冷用的通道,并將冷通道與機房環境熱氣完全隔離,從而將冷空氣限制在機柜中,避免了冷熱空氣混合、改善了冷空氣利用率、提高了機房空調制冷效率和制冷效果,從而實現PUE的降低和能源的節約。如下圖所示:

圖5封閉熱通道

圖6封閉冷通道

圖7封閉冷通道氣流云圖

封閉冷通道特點:

(1)封閉冷通道技術將冷空氣局限在機柜小環境中,冷空氣必須通過機柜才能釋放到機房、實現空氣循環,有利于機柜中所有設備散熱,可徹底解決機柜中局部過熱問題。

(2)封閉冷通道技術將冷熱氣體完全隔離,提高了回風溫度,解決了機房環境溫度過低、機柜設備溫度過高等困境,避免了空調無效工作,提高了制冷效率和制冷效果。

(3)封閉冷通道技術可有效降低機房能源消耗率PUE數值,提高數據中心效率,可增加機柜設備存放密度,提高數據中心的IT設備功率密度。

圖8易事特封閉冷通道解決方案

圖9河源電子政務冷通道數據中心(易事特冷通道解決方案)

  5、數據中心行間制冷方式的選擇

行級制冷:采用行級制冷配置時,空調機組與機柜行相關聯,在設計上,它們被認為是專用于某機柜行。

與傳統無氣流遏制房間級制冷相比,其氣流路徑較短,且專用度更加明確。此外,氣流的可預測性較高,能夠充分利用空調的全部額定制冷容量,并可以實現更高功率密度。

圖10行間級制冷氣流云圖

行級制冷特點:

(1)行級制冷對靜電地板無要求,甚至不需要靜電地板。

(2)空調接近熱源,送風路徑最短,冷風壓最大,冷風利用率及制冷效率最高。

(3)支持高密度制冷,單機架可布置服務器功率數最高。

在云計算和大數據應用促進下,數據中心建設迎來了一個新的建設高潮,建造功率密度更大,傳統的數據中心部署緩慢,密度低,擴展很難,且牽一發而動全身。到后期,隨著業務的發展、應用的增加,使得數據中心系統需要更多的管理軟件,系統也愈發冗余,配電、制冷都已經不能滿足需求,這時不得不對整體系統進行重新設計,進行擴展。

這種情況下,運用行級制冷的數據中心整體解決方案(微模塊)應運而生,即把整個數據中心分為若干個獨立區域,每個區域的規模、功率負載、配置等均按照統一標準進行設計。真正意義的微模塊數據中心,制冷、供電及管理系統都應實現區域化、微模塊,互不*,可以獨立運行,無共享部分。

圖11易事特微模塊數據中心基礎設施解決方案

圖12廣州百度數據中心(易事特微模塊解決方案)

  6、結論

在以往的空調系統設計中,多采取“房間級”制冷系統,屬于集中制冷模式,將空調房間考慮成一個均勻空間,按現場最大需求量來考慮,但是這種模式忽視了空間各部分的需要,缺少考慮制冷效率、制冷成本的意識。隨著數據中心數據量的增加,發熱功率直線上升,需要更大的制冷量及制冷效率才能滿足需求,這個時候各個數據中心廠家推出氣流遏制等解決方案。

目前,隨著科學技術的發展以及高密度大型數據中心的建設需求,人們逐漸認識到集中制冷的弊端和按需制冷的必要性,按需制冷就是按機房內各部分熱源的即時需要,將冷媒送到最貼近熱源的地方,這個階段典型的制冷解決方案就是行級制冷、水冷空調及冷凍水空調的應用,其最大的特點是制冷方式的定量化和精準化,從“房間級”制冷轉變為“行級”制冷,隨著數據中心的大發展,最后到“機柜級”以及“芯片級”制冷。

編輯:Harris

 

關鍵詞:ups電源參數http://lbjsjzl.com/list-3-1.html


?
在線咨詢 電話咨詢