www.AV天堂2019.com ,无码一区二区三区视频,天天躁日日躁狠狠躁一区,天天做天天爱天天综合网,无码无遮挡又大又爽又黄的视频

 

攝圖網(wǎng)_400206061_wx_創(chuàng)意太極背景(企業(yè)商用)

近年來,液冷技術(shù)在數(shù)據(jù)中心領(lǐng)域的遭遇可以用一個詞形容:又冷又熱。

技術(shù)冷:作為冷卻介質(zhì),液體的冷卻效能遠遠高于空氣,所以在冷卻效果上比風(fēng)冷更“冷”一籌。

關(guān)注熱: 隨著技術(shù)發(fā)展與產(chǎn)業(yè)環(huán)境、政策變化,液冷再度受到行業(yè)關(guān)注,且熱度持續(xù)增加。

產(chǎn)品熱:數(shù)據(jù)中心產(chǎn)業(yè)上游的設(shè)備廠商對液冷熱情高漲,相關(guān)產(chǎn)品與研發(fā)層出不窮,產(chǎn)業(yè)下游的云廠商們也開展了不同程度的技術(shù)探索。

應(yīng)用冷:產(chǎn)業(yè)中游的數(shù)據(jù)中心對液冷態(tài)度謹慎,尚無數(shù)據(jù)中心企業(yè)宣布液冷規(guī)模化部署計劃。

液冷為何突然在數(shù)據(jù)中心領(lǐng)域熱起來?產(chǎn)業(yè)“冷”“熱”差別的原因何在?液冷技術(shù)在數(shù)據(jù)中心的應(yīng)用離爆發(fā)還有多久?筆者試為你梳理解析這些問題,并給出個人判斷。

液冷非一日之寒  計算愈來愈熱

展開討論前,先明確液冷的定義:液冷是使用液體作為熱量傳輸?shù)拿浇?,為發(fā)熱部件換熱帶走熱量,傳遞到遠處再進行冷卻,實現(xiàn)散熱的技術(shù)。

相較于風(fēng)冷以空氣為冷卻媒介,通過風(fēng)扇和壓縮制冷,液體的比熱容遠高于空氣,單位體積熱容量是風(fēng)冷的1000倍以上,熱量傳導(dǎo)效率更高。

液冷風(fēng)冷對比

液冷與風(fēng)冷相關(guān)性能對比

這一原理很早就被發(fā)現(xiàn),并被最早應(yīng)用于工業(yè)、航天領(lǐng)域的散熱,至今被使用的“冷板”一詞據(jù)說就來源于阿波羅登月計劃,將液冷用于宇航員體溫控制。

在數(shù)據(jù)中心領(lǐng)域,液冷始終與計算產(chǎn)生的熱量緊緊聯(lián)系在一起。

萌芽:

上世紀60~90年代,數(shù)據(jù)中心還被稱為“機房”,采用集成電路的大型主機進行高速數(shù)據(jù)處理時有過熱宕機的風(fēng)險,以IBM為首的廠商研發(fā)了液冷系統(tǒng)應(yīng)用在大型主機,并取得顯著效果,其中就包括著名的IBM360/91型計算機。

遇冷:

計算技術(shù)的迭代,使得液冷隨后“遇冷”。

上世紀末,隨著超大規(guī)模集成電路取代晶體管,在計算效率提升的同時,計算機和芯片產(chǎn)生的功耗、熱量斷崖式下跌,風(fēng)冷的散熱效率足以滿足。在成本、安全顧慮、部署簡易性等因素影響下,風(fēng)冷超越液冷成為數(shù)據(jù)中心的主流散熱技術(shù)。

興起:

高密度計算興起,液冷再受青睞。

后摩爾定律時代,芯片功耗與服務(wù)器功耗逐步上升,數(shù)據(jù)中心單機柜功率密度也不斷增大, 2020年數(shù)據(jù)中心平均機柜功率已增長至8.5KW,傳統(tǒng)風(fēng)冷散熱在換熱性能及能耗上面臨瓶頸。業(yè)內(nèi)普遍認為,傳統(tǒng)風(fēng)冷已經(jīng)無法滿足高密度計算的發(fā)展需求,正如中國信通院云大所所長何寶宏表示“再大的風(fēng)也吹不冷滾燙的‘芯’了”。

因此,液冷于近年來再度進入數(shù)據(jù)中心視野,逐漸受到業(yè)界關(guān)注。

液冷數(shù)據(jù)中心:更好散熱 更低能耗

時移世易,面對當(dāng)前計算技術(shù)與散熱需求,在數(shù)據(jù)中心應(yīng)用液冷技術(shù)的優(yōu)勢正日漸顯現(xiàn)。

首先是散熱效率。據(jù)綠色網(wǎng)格研究,每機柜 15-25 kW 的功率密度是“未使用背板換熱器等其他制冷設(shè)備”的風(fēng)冷解決方案上限,而液冷系統(tǒng)可以支持的機柜功率是兩倍以上,甚至可以擴展到單機架超100kw。液冷可以支持數(shù)據(jù)中心高功率的散熱,提高換熱效率,且能減少服務(wù)器散熱熱點,有效抑制元件內(nèi)部溫度的瞬間提升,延長芯片壽命。

傳統(tǒng)高耗能風(fēng)冷數(shù)據(jù)中心各部分能耗占比

傳統(tǒng)高耗能風(fēng)冷數(shù)據(jù)中心各部分能耗占比

其次節(jié)能降耗。與傳統(tǒng)風(fēng)冷技術(shù)相比,液冷系統(tǒng)耗電量方面約比風(fēng)冷系統(tǒng)節(jié)省電量30%-50%。要知道,在傳統(tǒng)數(shù)據(jù)中心,制冷系統(tǒng)占數(shù)據(jù)中心整體能耗的40%以上。數(shù)據(jù)中心使用液冷可有效降低能耗,提高能源利用效率,降低PUE值和電力成本。

第三,提高計算密度,減少風(fēng)扇震動噪音。相較于傳統(tǒng)風(fēng)冷,液冷數(shù)據(jù)中心去掉了空調(diào)系統(tǒng)和對應(yīng)的風(fēng)冷基礎(chǔ)設(shè)施,也不需要設(shè)置冷暖通道,節(jié)省了大量空間可以容納更多服務(wù)器,提高計算密度和可銷售空間。不同液冷方式可減少或避免風(fēng)扇的使用,有效降低震動和機房噪音,而震動會直接影響IT系統(tǒng)的穩(wěn)定性和壽命。

綜合來看,數(shù)據(jù)中心液冷技術(shù),既契合了計算的未來高功率趨勢,滿足服務(wù)器芯片散熱需求,又能實現(xiàn)數(shù)據(jù)中心節(jié)能降耗,正愈發(fā)受到數(shù)據(jù)中心產(chǎn)業(yè)的廣泛關(guān)注。

產(chǎn)品與技術(shù)創(chuàng)新不斷  上游設(shè)備廠商踴躍

近些年,很多企業(yè)展開液冷在數(shù)據(jù)中心應(yīng)用的研發(fā),形成了多種部署方式和產(chǎn)品。

部署最多、服務(wù)器不直接接觸液體,不需要對數(shù)據(jù)中心機房進行重新改造的冷板式液冷。

將發(fā)熱器件完全浸沒在冷卻液中,散熱效率更高,實施難度更大需要對機房其他系統(tǒng)改造的浸沒式液冷。

別具一格,將冷卻液直接噴淋到發(fā)熱器件表面進行熱交換的噴淋式液冷。

不同液冷方式、代表產(chǎn)品及廠商,筆者一年前曾撰文《泡澡、淋浴、冷氣片——數(shù)據(jù)中心液冷模式與應(yīng)用一覽》。

阿里云液冷

阿里云在IDCC大會現(xiàn)場展示的浸沒式液冷模塊

時隔一年,液冷在數(shù)據(jù)中心的熱度更盛,各大設(shè)備廠商紛紛發(fā)力,有的首度推出液冷產(chǎn)品,有的將液冷上升為發(fā)展戰(zhàn)略,上游產(chǎn)品、解決方案頻出,各有側(cè)重:

去年12月的“第十六屆中國IDC產(chǎn)業(yè)年度大典”上,專注浸沒式液冷進行多年自主研發(fā)的阿里云正式向業(yè)界發(fā)布行業(yè)首款單相浸沒液冷解決方案——磐久液冷一體機系列Immersion DC 1000。據(jù)阿里云數(shù)據(jù),該解決方案可在全球任何氣象區(qū)域部署并可輕松實現(xiàn)極致PUE1.09。

2022年初,浪潮信息將“All in液冷”寫入公司戰(zhàn)略,全棧布局液冷,實現(xiàn)了全產(chǎn)品線支持冷板式液冷。浪潮信息表示,可以實現(xiàn)液冷從核心部件到整體解決方案全覆蓋,提供液冷數(shù)據(jù)中心從規(guī)劃咨詢到設(shè)計施工的全生命周期交付。

2022年初,寧暢推出了新系列液冷服務(wù)器,該系列包含高密度、通用機架等多品類產(chǎn)品,可適用于眾多IT應(yīng)用場景。隨后在液冷服務(wù)器基礎(chǔ)上,推出全系統(tǒng)定制液冷方案,實現(xiàn)從需求梳理、架構(gòu)設(shè)計、機房部署到運維服務(wù)的全系統(tǒng)定制。

2022年4月,新華三發(fā)布新一代冷板式液冷系統(tǒng)解決方案。該液冷系統(tǒng)由H3C UniServer R4900LC G5 液冷服務(wù)器、42U通用機柜、分布式CDU等部件組成,通過了中國計量科學(xué)研究中心的能源計量認證,夏季模式PUE可達1.047,整機全年平均PUE1.042。

今年下半年,科華數(shù)據(jù)陸續(xù)發(fā)布多款數(shù)據(jù)中心液冷產(chǎn)品:科華數(shù)能S³液冷儲能系統(tǒng)、針對邊緣計算中心和中小型中心節(jié)能改造的抽屜式水-風(fēng)液冷CDU、板式液冷微模塊數(shù)據(jù)中心。該微模塊數(shù)據(jù)中心冷循環(huán)系統(tǒng)采用機柜式CDU-300KW,散熱量可達300KW。

……

可以看出,過去一年中,數(shù)據(jù)中心液冷產(chǎn)品更加豐富,技術(shù)進一步加強,商業(yè)化進程加速。

顧慮幾重 數(shù)據(jù)中心觀望

如果只是一篇普通文章,寫到這里,得出“數(shù)據(jù)中心液冷形勢一片大好”的結(jié)論就足夠了。

然而,筆者梳理過近兩年來數(shù)據(jù)中心液冷領(lǐng)域的動作后發(fā)現(xiàn),大部分來自產(chǎn)業(yè)上游的設(shè)備廠商,服務(wù)器、CDU(數(shù)據(jù)中心液冷分配裝置)、TANK(機柜液冷柜)、CPU/GPU、冷卻液、整體解決方案,尤以服務(wù)器廠商為甚。產(chǎn)業(yè)下游,也僅有以阿里云為首的幾家云廠商,基于自身業(yè)務(wù)需求和技術(shù)先進性等因素,進行液冷研發(fā)與部署。

這其中,少了最不可或缺的產(chǎn)業(yè)中游——數(shù)據(jù)中心企業(yè)的身影。

據(jù)筆者了解,相較于上游廠商的踴躍態(tài)勢,僅個別企業(yè)按客戶需求提供了機房改造部署,大部分數(shù)據(jù)中心對液冷仍持觀望態(tài)度:認可液冷的散熱與節(jié)能優(yōu)勢,會主動了解液冷產(chǎn)品、技術(shù)細節(jié),在內(nèi)部做學(xué)習(xí)或小型探索,但無公開的大規(guī)模液冷部署行動和計劃。

筆者收集了數(shù)據(jù)中心對液冷技術(shù)的諸多顧慮:

可靠性。數(shù)據(jù)中心第一要務(wù)是保障業(yè)務(wù)連續(xù)性,浸沒和噴淋式會直接接觸電子器件,是否會出現(xiàn)器件腐蝕情況,包括冷板式在內(nèi),冷卻液泄露怎么辦,服務(wù)器功能和使用壽命是否會受影響,液冷技術(shù)的可靠性是數(shù)據(jù)中心、用戶的大擔(dān)憂。

部署難度。液冷不僅僅改變制冷系統(tǒng),數(shù)據(jù)中心的服務(wù)器、網(wǎng)絡(luò)設(shè)備、監(jiān)控系統(tǒng)等都要隨之改變,新建數(shù)據(jù)中心從設(shè)計到建設(shè)、調(diào)試運維都與此前不同,此前項目經(jīng)驗等無法復(fù)用,周期長難度大。存量數(shù)據(jù)中心的承重、管路等設(shè)計因循傳統(tǒng)機架,如果進行液冷部署改造,同樣會帶來新增成本、部署難度問題。

運維與售后。無論冷板、浸沒還是噴淋,液體進入到IT機柜內(nèi)部,給建設(shè)、測試和運維帶來新的挑戰(zhàn),目前缺乏成熟的運維經(jīng)驗和標準化要求。此外,有數(shù)據(jù)中心提出,液冷的服務(wù)器等產(chǎn)品售后維修政策也尚不成熟。

成本。雖然液冷能耗低所以數(shù)據(jù)中心OpEx降低,但前期CapEx明顯高于風(fēng)冷數(shù)據(jù)中心。哪怕忽視液冷服務(wù)器、CDU等設(shè)備的價格,單冷卻液價格也并非小數(shù)目,阿里云就曾對外表示“使用的冷卻液價格堪比茅臺”。

除去上述疑慮,數(shù)據(jù)中心對液冷“謹慎”的最根本原因,在于液冷的市場接受度——數(shù)據(jù)中心的互聯(lián)網(wǎng)、電商、視頻、金融等用戶大多尚不接受液冷。

液冷主流成必然 爆發(fā)尚欠一陣風(fēng)

提高新技術(shù)的接受度是一個漫長的過程,如今政策為液冷按下了快進鍵。

由于用電量大,社會普遍將數(shù)據(jù)中心定義為高耗能產(chǎn)業(yè),隨著“2030年碳達峰、2060年碳中和”戰(zhàn)略目標提出,數(shù)據(jù)中心面臨的能耗限制愈來愈嚴。

2021年7月,工信部印發(fā)的《新型數(shù)據(jù)中心發(fā)展三年行動計劃(2021-2023年)》要求:“到2023年底,新建大型及以上數(shù)據(jù)中心PUE降低到1.3以下,嚴寒和寒冷地區(qū)力爭降低到1.25以下。”

2021年12月,發(fā)改委等四部門發(fā)布的《貫徹落實碳達峰碳中和目標要求推動數(shù)據(jù)中心和 5G 等新型基礎(chǔ)設(shè)施綠色高質(zhì)量發(fā)展實施方案》表示“新建大型、超大型數(shù)據(jù)中心電能利用效率不高于 1.3,逐步對電能利用效率超過 1.5 的數(shù)據(jù)中心進行節(jié)能降碳改造。”

中央及各級主管部門政策對數(shù)據(jù)中心PUE考核提出更嚴要求,各地能評指標持續(xù)收緊,數(shù)據(jù)中心面臨前所未有的能耗和散熱挑戰(zhàn)。多位數(shù)據(jù)中心企業(yè)高管向筆者表示,上述政策的出臺,使得“液冷成為必然”,嚴格政策限制下“數(shù)據(jù)中心要想合規(guī),PUE值再繼續(xù)往下降,只能靠液冷了。”

過去一年以來,雙碳政策助推下,液冷技術(shù)的研發(fā)投入加大、產(chǎn)品和技術(shù)成熟度不斷提高,液冷在數(shù)據(jù)中心的發(fā)展前景毋庸置疑。

但要想實現(xiàn)液冷在數(shù)據(jù)中心的爆發(fā),不僅僅欠缺全產(chǎn)業(yè)的共同努力,欠缺更多行業(yè)標準的制定與完善,還差一場風(fēng),一場擁有強驅(qū)動力的風(fēng)——市場需求。

從萌芽到如今再度興起,液冷的發(fā)展始終源于計算的散熱。

如今政策、技術(shù)條件都已經(jīng)具備,當(dāng)下一波海量數(shù)據(jù)計算爆發(fā)式增長,帶動市場對數(shù)據(jù)中心的需求爆發(fā)時,液冷才將真正迎來在數(shù)據(jù)中心的爆發(fā)。

這個時間或許是兩年后、四年后,又或許,很快來臨。

關(guān)注中國IDC圈官方微信:idc-quan 我們將定期推送IDC產(chǎn)業(yè)最新資訊

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高興

  • 震驚

  • 憤怒

  • 無聊

  • 無奈

  • 謊言

  • 槍稿

  • 不解

  • 標題黨
2023-11-06 10:03:38
國內(nèi)資訊 【IDC圈周報】重磅廠商進軍數(shù)據(jù)中心液冷、400P以上項目有補助、12項目4智算、8000萬“算力券”......
眾多重磅企業(yè)紛紛進軍數(shù)據(jù)中心液冷,標志著我國液冷技術(shù)在數(shù)據(jù)中心領(lǐng)域的應(yīng)用邁出了重要一步。液冷技術(shù)是指利用液體介質(zhì)對數(shù)據(jù)中心的服務(wù)器、芯片等設(shè)備進行散熱,相比傳統(tǒng) <詳情>
2023-10-30 13:43:35
市場情報 iCooling,數(shù)據(jù)中心系統(tǒng)級AI節(jié)能專家
目前華為iCooling已在金融、運營商、大企業(yè)和智算中心行業(yè)應(yīng)用60+案例。 <詳情>
2023-10-25 16:31:00
人物訪談 【數(shù)字匠人】純鈞光冷帥旗:用液冷技術(shù)打造高效節(jié)能的數(shù)據(jù)中心
純鈞光冷品牌負責(zé)人帥旗,他介紹了純鈞光冷在液冷數(shù)據(jù)中心領(lǐng)域的發(fā)展及業(yè)務(wù)方向,同時分享了純鈞光冷品牌如何面對行業(yè)發(fā)展帶來的機遇與挑戰(zhàn)。 <詳情>
2023-08-18 13:31:00
數(shù)據(jù)中心節(jié)能 OCP China Day 2023觀察:液冷成為必然 助力綠色計算發(fā)展
液冷將逐漸成為數(shù)據(jù)中心散熱的首選,也是實現(xiàn)綠色計算和可持續(xù)發(fā)展的必然。 <詳情>
美國AI管制擴大化:東南亞數(shù)據(jù)中心產(chǎn)業(yè)發(fā)展探析
2025-01-20 11:25:00
細分IDC三大業(yè)務(wù)場景 工信部發(fā)布加強IDC數(shù)據(jù)安全保護新政
2025-01-16 10:29:00
給地!給電!拜登簽署行政命令加速美國智算中心建設(shè)
2025-01-16 10:25:25
2025年算力產(chǎn)業(yè)十大趨勢|年度專題策劃
2025-01-15 16:37:00
九章云極DataCanvas首席戰(zhàn)略官張帆:算力供需錯配 算力包讓算力消費更合理更易用
2025-01-15 16:31:00
吉寶子公司出售其馬來西亞數(shù)據(jù)中心項目
2025-01-15 16:26:00
2025年中國智算服務(wù)及應(yīng)用十大趨勢
2025-01-15 16:19:00
總算力10EFLOPS 中國移動長三角(蘇州)汾湖智算中心一期投運
2025-01-15 15:59:00
投資40億元、20000P,彌渡智算產(chǎn)業(yè)園開工
2025-01-15 15:56:00
從芯片到數(shù)據(jù)中心 亞馬遜云科技引領(lǐng)基礎(chǔ)設(shè)施創(chuàng)新
2025-01-14 16:51:00
馳援日喀則!中興通訊助力災(zāi)區(qū)通信保障
2025-01-08 20:57:56
為什么“風(fēng)液混冷一體化交付”正在成為智算中心必然選擇?
2025-01-06 16:13:00
2025年,三大運營商基礎(chǔ)設(shè)施建設(shè)怎么干?
2025-01-03 11:41:56
【綠色升級,智啟未來】——節(jié)能改造自評估系統(tǒng)與PUE自評估系統(tǒng)正式上線!
2025-01-03 11:33:57
規(guī)劃機柜6000個 中核創(chuàng)新云計算綠色智慧數(shù)據(jù)中心奠基
2025-01-03 10:38:57