一区二区电影欧美日韩_日本一本加勒比高清dvd_97思思久久亚洲_香蕉视频APP下载在线_2021国产精品最新_日韩av黄色网址_小黄片免费看a_亚州综合在线_国产高清无码自慰_中文国产亚洲成人

加入收藏 設(shè)為首頁 聯(lián)系我們 歡迎光臨本網(wǎng)站!

服務(wù)熱線 010-63550645

專注于數(shù)據(jù)中心第三方驗證測試服務(wù)行為公正、方法科學(xué)、結(jié)果準(zhǔn)確、服務(wù)高效

聯(lián)系我們
服務(wù)熱線:010-63550645

郵箱:support@zcecs.com

地址:北京市西城區(qū)南濱河路27號貴都國際中心A座1111室

數(shù)據(jù)中心液體冷卻技術(shù)的“機架經(jīng)濟學(xué)”
來源:未知 發(fā)布時間:2019-12-16 15:59 點擊:

過去幾年來,很多數(shù)據(jù)中采用了某種形式的液體冷卻技術(shù)。此外,芯片制造商開始設(shè)計功能更強大的核心處理器,由于這些處理器功率越來越高,很難采用空冷技術(shù)進(jìn)行有效冷卻,采用液體冷卻技術(shù)成為了更好的選擇。

在不同領(lǐng)域,人們對液體冷卻技術(shù)的認(rèn)識和興趣明顯增強,這是由各種應(yīng)用和動機驅(qū)動的。50年前,液冷技術(shù)最初用于早期的大型機,而現(xiàn)在開始與新的超級計算機和高性能計算(HPC)系統(tǒng)重新融合。盡管如此,IT設(shè)備采用的空氣冷卻技術(shù)仍然占據(jù)了大多數(shù)傳統(tǒng)數(shù)據(jù)中心制冷的主導(dǎo)地位。然而,驅(qū)動企業(yè)和托管設(shè)施市場采用冷卻技術(shù)的主要因素是功能、性能、成本效益。

人們可以從初始前期投資(CapEx)、運營成本(OpEx)和投資回報率(ROI)這幾種不同的角度看待成本效益。此外,對于數(shù)據(jù)中心設(shè)施和IT設(shè)備來說,這些因素的影響也不盡相同。在此關(guān)頭,盡管目前數(shù)據(jù)中心設(shè)施在物理空間和電力容量方面都發(fā)生了變化,但風(fēng)冷IT設(shè)備與數(shù)據(jù)中心設(shè)計和構(gòu)建的結(jié)合已經(jīng)相對成熟。相對于數(shù)據(jù)中心設(shè)施的IT設(shè)備指標(biāo)集中在機架數(shù)量和機架的功率密度上。對于給定數(shù)量的IT設(shè)備功率負(fù)載(需要多少空間和功率分配(每個機架的IT設(shè)備數(shù)量和大。﹣碚f,這最終成為一項經(jīng)濟決策。

例如在大型數(shù)據(jù)中心,每個機架的平均功率5kW,并部署了200個機架,而每個機架部署數(shù)十個IT設(shè)備和PDU。如果設(shè)備部署在托管數(shù)據(jù)中心中,則用戶只需要為所需的空間和IT設(shè)備使用的電費支付費用。顯然,如果每機架的功率為10kW,則機架和空間的數(shù)量可以減少50%,但總功率卻是相同的。這個比率顯然被過度簡化了,還有許多其他因素(網(wǎng)絡(luò)電纜和設(shè)備,以及存儲系統(tǒng)和服務(wù)器/刀片服務(wù)器的功率密度類型)會影響這個比率降低的準(zhǔn)確性。

盡管毫無疑問, IT設(shè)備功率密度平均要求已經(jīng)提高到可以滿足性能要求,但從理論上講,這應(yīng)該需要較少的空間和每兆瓦的關(guān)鍵負(fù)載所需的機架數(shù)量。實際上,這種機架功率密度比會影響數(shù)據(jù)中心設(shè)施的資本支出和運營支出,以及IT設(shè)備所有者/用戶,這就是為什么將其稱為“機架經(jīng)濟學(xué)(rackonomics)”,這是Blade Network Technologies公司在2008年提出的概念。

9

實際上,許多老舊的數(shù)據(jù)中心設(shè)施(企業(yè)內(nèi)部部署數(shù)據(jù)中心或托管數(shù)據(jù)中心)每個機架功率有效地限制在5kW左右,但較新的數(shù)據(jù)中心設(shè)施的設(shè)計為每個機架10至20 kW。

這仍然不能確保完全實現(xiàn)更高的功率/空間比的最大好處。這個比率假定所有機架實際上都已加載到接近或處于最高功率水平,而在混合IT設(shè)備環(huán)境中通常不是這種情況。在許多典型的企業(yè)方案中,每個機架的最大功率與最小功率之比為5:1到10:1,每個機架的最大功率和平均功率之比可能為3:1到5:1。這些比率影響了機架經(jīng)濟學(xué)。

即使在使用數(shù)千臺1U服務(wù)器或刀片式服務(wù)器的超大型數(shù)據(jù)中心環(huán)境中,它們的平均功率密度也很少達(dá)到或超過每機架10kW到15kW。這在一定程度上受限于風(fēng)扇功率和散熱成本,隨著功率密度的增加(冷卻系統(tǒng)和內(nèi)部IT設(shè)備風(fēng)扇),這些成本往往會大幅增加。盡管超大規(guī)模數(shù)據(jù)中心運營商(托管數(shù)據(jù)中心和互聯(lián)網(wǎng)云計算服務(wù))建造了大型數(shù)據(jù)中心設(shè)施,但相對于電力和冷卻基礎(chǔ)設(shè)施成本而言,大型建筑外殼成本在資本支出中所占比例相對較低。

液體冷卻方案主要集中在更高的功率密度應(yīng)用(例如每個機架25 kW、50 kW和100 kW)?稍诳諝饫鋮s設(shè)施中以最小的影響或無影響的方式進(jìn)行部署。例如,在每個機架50kW時,它只需要20個液冷IT設(shè)備機架來提供1MW的電力容量。在許多情況下,液冷IT設(shè)備不需要機械冷卻和冷卻水。這節(jié)省了冷水機組的資本支出和運營成本,同時減少了80%的機架、PDU和相關(guān)設(shè)備的成本。

似乎出現(xiàn)的問題之一是內(nèi)排式后門式封閉式機柜液體冷卻系統(tǒng)(用于標(biāo)準(zhǔn)風(fēng)冷IT系統(tǒng))的成本要比傳統(tǒng)數(shù)據(jù)中心空氣冷卻系統(tǒng)的成本更加昂貴。盡管這在一定程度上是正確的,但管道成本與將它們改裝到運營數(shù)據(jù)中心的現(xiàn)有冷卻系統(tǒng)中有關(guān)。確實,目前液冷IT設(shè)備比其空氣冷卻設(shè)備更昂貴。但是,其價格是受幾個因素驅(qū)動的。第一個是數(shù)量,特別是部署高功率的小容量水冷服務(wù)器的成本,其功率密度通常為每1U 為1到2 kW。

在此,基于CPU和內(nèi)存的液冷散熱器的液冷服務(wù)器開始改變機架經(jīng)濟學(xué)。像聯(lián)想這樣的主要OEM廠商一直在提供更多具有液體冷卻功能的高性能計算(HPC)服務(wù)器和刀片服務(wù)器產(chǎn)品。這些機架式服務(wù)器的機架能夠以50至60 kW的功率運行。盡管目前還沒有直接的成本競爭優(yōu)勢(部分是由于銷量低),但機架經(jīng)濟學(xué)的比率開始變得更加明顯。冷卻運營成本(OpEx)也可以發(fā)揮作用,因為它們可以使用溫水(符合ASHRAE W4標(biāo)準(zhǔn))運行。

另一方面,開放計算項目(OCP)組織于2018年7月推出了高級冷卻解決方案(ACS)子項目,重點關(guān)注如何使用液體冷卻來提高冷卻性能和能源效率以及降低成本的硬件。

今年7月,Cerebras Systems公司推出晶圓級引擎(WSE)處理器,該公司這是有史以來其生產(chǎn)的規(guī)模最大的商用芯片,旨在解決深度學(xué)習(xí)計算問題。晶圓級引擎(WSE)將1.2萬億個晶體管封裝在一個215 x 215毫米的芯片上,該芯片具有通過100Pbit/s互連連接的40萬個經(jīng)過人工智能優(yōu)化的內(nèi)核。晶圓級引擎(WSE)的最大功率為15kW,因此它需要采用液冷技術(shù)。

 

實際上,很難將相對的便利性與“機架和堆疊”相匹配,并為大多數(shù)風(fēng)冷IT設(shè)備提供服務(wù)。此外,人們已經(jīng)看到了用于風(fēng)冷IT設(shè)備的冷卻系統(tǒng)以及IT設(shè)備本身的巨大改進(jìn)。但是,這種簡單性并不是突然發(fā)生的。數(shù)據(jù)中心布局和機柜從從大型主機時代的從頂部到底部氣流的前置、固態(tài)前端IT機柜發(fā)展到當(dāng)今的熱通道/冷通道布局,已經(jīng)花費了很多年。實際上,即使到上世紀(jì)90年代后期,通用IT設(shè)備機柜也很少。

液體冷卻系統(tǒng)具有多種形式,仍在不斷發(fā)展,并且具有許多技術(shù)優(yōu)勢。但是,由于尺寸等問題在供應(yīng)商之間不能互換,這也阻礙了一些用戶的購買和使用,并且可能無法迅速接受變化。十多年前,當(dāng)互聯(lián)網(wǎng)巨頭首次開始使用自然冷卻技術(shù)時,傳統(tǒng)的企業(yè)數(shù)據(jù)中心用戶對此并不在意。

傳統(tǒng)的數(shù)據(jù)中心花費多年的時間才超越了ASHRAE的第一版“熱指南”(2004年),該指南定義了最初的推薦的68°F至77°F環(huán)境范圍。2011年,ASHRAE發(fā)布了第三版的“熱指南”,其中包含了直接在空氣中自然冷卻信息。它還引入了“允許的”環(huán)境包絡(luò)類別A1-A4,IT設(shè)備進(jìn)氣溫度高達(dá)113°F。自2006年以來,很少有人知道ASHRAE推出的液體冷卻指南。

今年,ASHRAE發(fā)布了一份名為“水冷式服務(wù)器——通用設(shè)計、組件和流程”的白皮書。目前,包括ASHRAE、綠色網(wǎng)格開放計算項目(OPC)、Open 19和美國能源部(DOE)在內(nèi)的多個組織正在合作,為液體冷卻創(chuàng)建框架、指南和規(guī)范,其中包括適用于IT設(shè)備和機架的外形尺寸、管道、快速斷開無滴漏接頭、冷卻液分配歧管等冷卻設(shè)備。

為了應(yīng)對氣候變化,數(shù)據(jù)中心行業(yè)和IT設(shè)備制造商在整體能效方面進(jìn)行了許多改進(jìn)。Nautilus公司的漂浮式數(shù)據(jù)中心以及微軟公司的水下數(shù)據(jù)中心(例如Natick項目)通過使用海水進(jìn)行冷卻來宣傳其冷卻效率。與傳統(tǒng)的基于壓縮機的機械冷卻相比,其排入水中的廢熱能效更高。但是,即使PUE為1.0x,其熱量也會被排到外界環(huán)境中,因此水下數(shù)據(jù)中心仍然無法真正緩解氣候變化。

盡管在能源回收方面已經(jīng)做了一些努力,但要有效地回收IT設(shè)備的余熱是非常困難或昂貴的。采用液體冷卻技術(shù)的好處之一在于ASHRAE W4(不超過113°F)和W5(高于113°F)兩類IT設(shè)備,它們可以在140°F到150°F的溫度下輸送絕緣流體,這些流體的溫度范圍為很大一部分能量回收提供了更具成本效益的機會。

隨進(jìn)入下一個十年,建設(shè)和運營千兆瓦級園區(qū)的超大規(guī)模數(shù)據(jù)中心已成為新常態(tài),這在提高能源效率和利用可持續(xù)能源方面處于領(lǐng)先地位。人們相信,液體冷卻技術(shù)的不斷發(fā)展和應(yīng)用范圍的擴大將由這些超大規(guī)模數(shù)據(jù)中心運營商成為市場主導(dǎo),而不僅僅是為了“機架經(jīng)濟學(xué)”。


tag標(biāo)簽:數(shù)據(jù)中心(989)液體(1)冷卻技術(shù)(1)
北京中測信通科技發(fā)展有限公司 版權(quán)所有
京ICP備15039513號-1
服務(wù)熱線:010-63550645 傳真:010-63550645 郵 箱:support@zcecs.com
企業(yè)云:首選線路 備用線路
地址:北京市豐臺區(qū)花鄉(xiāng)高立莊616號新華國際中心D座3層315室