散熱產業
1
2023/8/19
中山財管 周郁容、台大商研碩二 蔡博獻、台大政治四 闕湧軒、台大外文四 程歆雅、台大財金四 江依庭
Agenda
2
• 產業介紹
• 成長動能
○ 伺服器晶片
○ AI 伺服器/資料中心
○ 5G 通訊
○ 電動車
• 未來展望
• 個股
資料來源 :
結論
3
自行整理
綜合以下原因我們推薦散熱產業:
• 隨著 AI 伺服器算力高速成長,對散熱功率 (TDP) 需求已超過目前氣冷散熱極限 (350W),液冷以及浸漠式技術將成為
未來 AI 伺服器晶片散熱解方。
• 各地政府對資料中心 PUE 要求趨嚴,液冷式或浸沒式方案已成趨勢,其中中國部分地區 2025 年對大型資料中心的
PUE 要求低於 1.25,預期將為液冷式與浸沒式冷卻導入最快速的地區。
• 電動車將是散熱產業除了伺服器之外的主要應用場景,隨著各國政策推動、消費強勁及能源轉型需求,散熱需求及解
決方案會持續成長。
• 浸沒式冷卻技術為未來散熱解決方案中最佳選擇,加上 AI 伺服器高功率運算及綠色趨勢,浸沒式冷卻導入時間將大大
加速。
散熱產業介紹
1
4
資料來源 :
建準(2421. TT)、雙鴻(3324.
TT)、奇鋐(3017. TT)、高力
(8996. TT)、緯穎(6669. TT)
散熱產業鏈
5
上游 – 基本原料 中游 – 零組件/模組 下游 – 應用
扇葉、驅動電路板、導熱電
片、熱導管、銅或鋁塊等
散熱模組、散熱器:主要由
散熱鰭片、散熱導管以及風
扇三個部分組成
主要為電腦或其週邊設備等
終端應用產品,包括筆電、
桌機、工業電腦、伺服器、
汽車散熱、手持裝置
代表公司
• 散熱系統的主要是通過熱傳導和熱對流,將電子設備運行時產生的熱能散發出去,以保持其在適當的溫度範圍內運作。
自行整理
資料來源 :
散熱系統控管溫度,是電子設備壽命與運行速度的關鍵
6
• 在正常運作期間,CPU 內部的電晶體會將電力轉換為熱能(熱量),在設計 IC 時通常會設定最高時脈速度,避免系
統過熱而損毀,此時相對應廢熱散發的效率則被稱作熱設計功耗(TDP,單位為 W)。
• 散熱技術可分為傳統氣冷散熱和液冷散熱兩種。傳統氣冷散熱使用熱介面材料(TIM)、均熱片或熱導管將熱從晶片
導出,再由散熱鰭片和風扇進行散熱。液冷散熱則透過液冷板或浸沒式散熱,利用液體熱對流散出熱,達到晶片降溫。
圖1-1:氣冷式CPU冷卻器 圖1-2:水冷式CPU冷卻器
富果、Intel、自行整理
資料來源 :
液冷散熱又可分為液對液、液對氣
7
• 液冷的主要原理為透過液冷板(Cold Plate),將產生熱量的元件中的熱能傳遞到封閉式冷卻迴路中的冷卻液。這個
冷卻液會透過熱交換器進行散熱,然後再流回伺服器內部循環使用。
• 液對液:液體冷卻系統需要在機房內安裝液體冷卻管路等設施,才能運行。冷卻液會被送到伺服器機房的液體冷卻管
線中,透過這些設施的冷卻管路和散熱機制,統一地將熱量排出。
• 液對氣:氣冷方式適用於現有的氣冷機房,無需額外安裝液體冷卻管路。熱交換器安裝在伺服器機櫃內,將產生的熱
能釋放到空氣中,但其冷卻效能不如液體冷卻方式。優點是氣冷式伺服器和液冷式伺服器可以同時存在於相同的設施
內。
圖1-3:液冷散熱比較
群益證券
資料來源 :
使用 3D 均熱板(3DVC)升級現有散熱模組
8
Celsia
• 3DVC(3D Vapor Chamber)是均熱板和熱導管的結合,通過均熱板延伸的圓柱狀熱導管,使冷凝劑在內腔吸熱後
轉換為氣體上升,將熱帶離表面,再經由鰭片和風扇冷卻後,重新轉為液態流回內腔。
• 3DVC的優勢在於比起熱板可解熱的功耗更大之外,空間、體積的彈性也較大,可以根據客戶的機構配置作出調整,
更具客製化的特性,同時,瓦數可以解到 500 瓦以上,部分高階的伺服器也可以使用,更適合用於網通類的產品中,
從基地台到強波站、機房等等。
• 和液冷板方案相比具成本優勢,也不會有漏液導致主機板損壞的問題,目前已在導入 Intel Eagle Stream 和 AMD
Genoa 兩大平台。
圖1-4:3DVC圖示
資料來源 :
隨著晶片運算能力提升,傳統氣冷散熱技術已逼近極限
9
永豐金證券、富果、高力法說、自行整理
• 隨著晶片算力提升,主流伺服器高階 CPU 之 TDP 都已達 350~400 W;GPGPU 和 Switch IC 更已突破 600W、
800W, Intel、AMD 下一代 CPU 之 TDP 也將突破 500W,傳統氣冷散熱逐漸不敷使用。
氣冷散熱 液冷散熱 單相浸沒式 兩相浸沒式
熱交換原理 氣對流 液對氣/液對液 水對水
冷卻介質 空氣 丙二醇 介電液 介電液
最大解熱(TDP) 225W 800W 800W >800W
硬體成本(USD) 3k 30k 250k~300k 300k~400k
外部冷卻裝置 冷卻水塔、冰水主機 水冷塔、冰水主機、
管線
機房規劃、水冷塔、
管線、機械手臂
機房規劃、機械手臂
表1-1:伺服器散熱方案比較
資料來源 : 自行整理、digitimes 10
散熱產業終端應用鏈剖析
• 散熱產業終端應用鏈大宗為大宗為筆記型電腦以及伺服器,兩者約佔整體 70% 左右出貨量。剩餘 30% 則由電動車、5G網
路、資料中心、顯卡等領域拆分。
• 近年來伺服器、AI 人工智慧、電動車、資料中心等應用端明顯呈增長趨勢,而 NB、手機等領域則逐年走下坡。
圖1-5:散熱產業應用端一覽圖
成長動能
2
11
伺服器晶片
2-1
12
資料來源 :
• 散熱系統即是透過熱傳導和熱對流,將電子設備運行產生的廢熱發散出去,若廢熱無法有效發散,將影響半導體元件
的壽命和性能。
• 熱設計功耗 ( TDP ) : IC 為避免系統過熱而損毀所設定的廢熱散發的最高效率。
• 傳統氣冷散熱以傳導性差的空氣作為介質,以最常見的 1U、2U 伺服器為例,臨界散熱效率分別為 350W、
400~500W。
晶片對散熱功率需求攀升 液冷技術需求提升
13
表2-1:伺服器晶片TDP比較
晶片 公司 型號 發布時間 TDP
CPU Intel Granite
Rapids
2024Q4 500W
AMD Genoa 2022Q4 400W
Turin 2024H2 600W
GPU NVIDIA H100 2022Q1 700W
AMD MI200 2021Q4 500W
MI300 2023Q1 600W
Switch IC Broadcom Tomahawk 5 2022 800W
晶片 公司 型號 發布時間 TDP
富果
資料來源 :
• 伺服器新平台 Intel Eagle Stream 、AMD Bergamo 的效能提升,將帶動散熱零組件的板均價 (ASP) 走揚。
• Intel 推出伺服器新平台 Eagle Stream,TDP 提升至 350W、增加 30%,散熱模組單價也增加 20%。
• AMD 推出伺服器新平台 Bergamo,TDP 提升至 400W,增加 40% 。
Intel、AMD 推出伺服器新平台 散熱規格升級
14
表2-2:Intel Eagle Stream AMD Genoa 伺服器平台比較
富果、華南投顧
資料來源 :
Intel、AMD 推出伺服器新平台 散熱規格升級(cont’d)
15
CPU
公司 型號 發布時間 TDP
Intel
Sapphire Rapids 2023Q2 350W
Emerald Rapids 2023Q4 350W
Granite Rapids 2024Q4 500W
Sierra Forest-AP 2024Q4 500W
AMD
Milan 2021Q1 350W
Genoa 2022Q4 400W
Bergamo 2023Q3 400W
Turin 2024H2 600W
表2-3:Intel, AMD伺服器晶片TDP比較-2
富果、華南投顧
AI 伺服器/資料中心
16
2-2
資料來源 :
• 研究機構 TrendForce 統計,2023年的 AI 伺服器占整個伺服器市場的出貨量比重約莫可以達到 9%,到了 2026 年將占
15%。論單價 (ASP) 而言,其為一般伺服器的 15 到 20倍。但是 2023 年受到 ChatGPT 應用的帶動,整體 2022 年到
2026 年的 AI 伺服器出貨量 CAGR 達 29%。
• AI 伺服器及晶片需求同步看漲,TrendForce 預估 2023 年 AI 伺服器(含搭載GPU、FPGA、ASIC 等)出貨量近 120
萬台,年增 38.4%,同步上修 2022~2026 年 AI 伺服器出貨量 CAGR 至 22%。AI 晶片 2023 年出貨量成長 46%。
• 雖然散熱占 AI 伺服器成本比重約為 1%,其仍為 AI 伺服器運作的關鍵,也是各大伺服器供應商都加重投入的部分。
TrendForce、自行整理 17
AI 伺服器晶片需求旺盛 拉抬散熱產業需求
表2-4:全球 AI 伺服器2022-2026出貨量預估
(單位: 千台)
資料來源 :
• 受到 AI 應用帶動相關半導體技術發展, GPU 運算力必須連帶要成長數百倍。目前業界多以液冷中的單相浸沒式冷卻
技術(600W 上限值),解決高密度發熱的伺服器或零件散熱問題,然而更高階的伺服器 (e.g. ChatGPT) 散熱能力
須高於 700W 才足以因應
• TrendForce 表示,NVIDIA GPU 為 AI 伺服器市場搭載主流,市占率約 60%~70%,晶片主銷售包含 A100 與 A800,
2023H2 也陸續導入 H100 與H800,尤其新機種 H100 與 H800 平均銷售單價約 A100 與 A800 的 2~2.5 倍,加上
NVIDIA 積極銷售自家整機解決方案
• 由於 NVIDIA 的 A100/H100 缺貨情形遠大於預期,預估今年能夠運行生成式 AI 的高階 AI 伺服器僅佔全球伺服器出
貨量的不到 1%,相當於 10 萬至 15 萬台的出貨量。DIGITIMES Research 最新數據表明 2024 年 AI 伺服器市場量將
攀升 1~2% 至 15 萬至 20 萬台
AI 伺服器/晶片散熱技術需求提升
18
TechNews
NVIDIA 晶片 TDP ASP
A100 400W 15,000
A800 250W 12,000
H100 700W 36,500
H800 700W TBC
資料來源 :
• 資料中心的電力消耗主要來自電源及空調系統、伺服器及相關設施,與其他支援 IT 負載及數據中心運作的各項設備。
• 各地政府對資料中心 PUE 要求趨嚴,單用氣冷式冷卻難以符合新法規,水冷式或浸沒式方案已成趨勢。
• 中國部分地區 2025 年對大型資料中心的 PUE 要求低於 1.25,預期將為水冷式與浸沒式冷卻導入最快速的地區。
群益證券、自行整理 19
各地政府對資料中心PUE要求趨嚴 液冷技術需求攀升
地區 PUE規範 執行時間
中國 1.5 ↓ 執行中
印度 1.5 ↓ 草案
歐盟 1.4 ↓ 2025
日本 1.4 ↓ 鼓勵形式
新加坡 1.3 ↓ 執行中
南韓 1.3 ↓ 2025(草案)
德國 1.3 ↓ 2025(草案)
荷蘭 1.2 ↓ 執行中
表2-7:各國 PUE 標準比較
表2-6: 不同散熱技術之 PUE 比較
資料來源 :
中國工信部、發改委已有對數據中心出台相關政策
20
表2-8:中國數據中心東數西算發展規劃 圖2-9:中國移動/電信水冷板及浸沒式液冷試點
Gigabyte
• 根據 2023 年中國電信營運商液冷技術白皮書,中國各大電信將於 2023 年展開技術測試; 2024 年新建 10% 液冷技
術規模測試;2025 年達 50% 以上的項目應用液冷技術
• 2022 年 6 月工信部等六部門發布《 工業效能提升行動計畫 》,並指出到了 2025 年新建大型、超大型數據中心電能
利用效率 ( PUE ) 需優於 1.3,同時強調數據中心要擴大綠能利用比率,推動老舊數據中心實施系統節能改造
• 北京市發改委於 2021 出台《關於進一步加強數據中信項目節能審查等若干規定 》,要求北京市數據中心不僅僅是在
PUE 值和能耗限額,功能、在線監控、設備選用、可再生能源利用皆被重視和詳細要求
資料來源 :
• 國際數據資訊(IDC)研究預估從 2020 年至 2025 年,全球數據資料量的年複合成長率上看 24%。以全球資料中心
一年總耗電量高達 1,980 億度、耗電占比 2% 來看,資料中心追求更低的 PUE 值,等同於降低碳排放
• 一般風冷散熱資料中心的 PUE 是 1.69,意即設備每使用100W 電力,會浪費 69W 在散熱、照明等與運算無關的耗能
上。相較之下液冷的 PUE 只有約 1.15,浸沒式最佳更可達到 1.03,由此可以看出三者之間的功耗差異
散熱技術提升有效降低資料中心耗能
21
財經新報、工研院資通所
液冷散熱 氣冷散熱
所需設備 冷卻液監控主機、
冰水主機
空調、冷熱通道、
冰水主機
伺服器所需電力 850W 1000W
總設備所需電力 120W 787W
PUE 1.14 1.79
建置成本 6.1億元 5.7億元
一年所需經費 4900萬元 8900萬元
十年營運成本(含電費、設備維護、運
營等成本)
16.7億元 20.2億元
表2-9:氣冷液冷散熱成本比較
「沉浸式冷卻邊緣資料中心」
圖2-10:工研院液冷新技術五大特色
資料來源 :
氣冷技術已到極限,液冷散熱可再降低 PUE
22
TechNews
• 由於新一代伺服器 TDP 提升到接近氣冷散熱的極限,因此電子科技大廠紛紛開始測試液冷散熱,或增加散熱空間,如
Intel 的 Eagle Stream、AMD 的 Genoa TDP 350-400 W 就達氣冷極限,使液冷散熱成為 AI 晶片主流,而 NVIDIA
H100 的 TDP 達 700W,由於氣冷採 3DVC,普遍需 4U 以上空間,不符合高密度部署架構
• 以散熱系統占資料中心總耗能約 33% 來看,減少總用電量降低電力使用效率 (PUE) 的方式,包含改善散熱系統、資
訊設備,並使用再生能源,而水的熱容量是空氣的 4 倍,因此導入液冷散熱系統,液冷板只需要 1U 的空間。根據
NVIDIA 測試,若要達到相同算力,液冷所需的機櫃量可減少 66%、能耗可減少 28%、PUE 可由 1.6 降到 1.15,並
可提升運算效能
電動車產業
23
2-3
資料來源 :
電動車中多項系統都需要散熱技術維持運作
24
工業材料雜誌、T-Global Technology、Dober
散熱類型 技術 應用
氣冷 結構較簡單,便於維護
電動巴士、電動物
流車及早期的電動
車(Nissan Leaf,
Soul EV 等)
液冷
系統體積小,耐震、壽命
較高,調節電池溫度調節
顯著
多種電動車優選,
如 BMW i3、Tesla
直冷
可快速且高效地將電池系
統的熱量帶走
典型方案如 BMW
i3
相變化材料冷卻
常見材料有石蠟類、高級
脂肪酸類、聚烯烴、醇類
等
Gogoro 將石蠟應
用在自家電動機車
的電池包吸熱與均
溫
冷卻液特點 說明
電動車冷卻液所導電
率低
引擎需要在其冷卻液中具有熱導性,但由於可
能出現冷卻液洩漏到電池內部的故障,它需要
具有低導電率,以防止火災或爆炸的威脅。
電動車冷卻液壽命長
由於內燃機引擎運作溫度較高(190°C 對比
40/50°C),氧化和熱會更快地分解冷卻液中
的乙二醇。這使得電動車冷卻液比傳統的內燃
機冷卻液更持久。
表 2-12: 電動車散熱類型
表 2-13: 電動車冷卻液特點
• 電動車中的電池模組、ADAS 駕駛輔助系統、行車電腦系統、影音娛樂系統等皆對散熱有高需求,氣冷、液冷、直冷
及相變化材料冷卻皆有採用。
資料來源 :
• 由於電動車內充斥電池封包、車載智慧系統以及各種需要接電的電控元件,所以會形成電生熱的現象,需解熱工程,
否則一旦溫度過高就會對電池模組、電子元件及各類智慧系統造成運作及壽命上的影響。
• 電動車的動力來源體積龐大、占了車身與底盤空間接近一半的電池模組,電池在充電與放電時會產生大量的熱能。
• 比起傳統燃油車約需花費 5 到 10 分鐘才會慢慢升溫,電動車只需 1 到 3 分鐘就會產生幾百瓦以上的熱能,所以快速
有效的熱管理成為避免電池壽命與充放電效率受到影響的關鍵。
電池模組成為電動車散熱的重中之重
25
TechNews
1. 電池頂部或是底部會搭配低導熱係數或材質很軟的導熱墊片
2. 單劑型的導熱膠泥或是雙劑型的導熱封膠作為填縫用
資料來源 :
• 全球電動車市場將會持續高速成長,以中、歐、美為首,加上印度、泰國及印尼推出數十億美元的電動車投資政策。
• 全球電動車周邊相關消費支出在 2022 年達 4.25 兆美元,年成長率 50% 且僅 10% 來自政策,可見民間消費強勁。
• 全球電動車電池冷卻板 2022 年市場規模為 4.929 億美元,預計在 2029 年達到 6.167 億美元,預測期間的 CAGR 為 3.3%。
電動車應用受政策及消費強勁帶動,未來成長可期
26
IEA, Data Bridge
全球市場 亞太地區 北美地區 碳排影響
全球電動車熱管理系統市
場規模預期在 2029 年達
到 143 億美元,以 CAGR
24.1% 的成長率從 2021
年的 26.8 億美元成長。
亞太地區掌控硫酸市場因
為有大量的製造業需求
(硫酸是電動車電池正極
材料),帶動全球市場規
模預期在 2029 年達到
122.8 億美元。
主要電動車產業鏈參與企
業皆在美國或設有營運據
點,加上基礎建設法案政
策支持,帶動電動車市場
持續成長。
2022 年間,全球約 30%
的溫室氣體排放減少量來
自於中國的交通工具電氣
化。到 2050 能源淨零排
放情境下,將有 25% 減
少的碳排來自重型車輛
(heavy-duty vehicles)
的電氣化。
表 2-14: 電動車展望整理
未來展望
3
27
資料來源 :
未來伺服器散熱解方:浸沒式冷卻技術
28
• 浸沒式冷卻是液冷技術的一種,透過將伺服器直接浸泡在不導電的液體中,直接將零組件產生的熱能傳導給液體,溫
度上升的液體在透過循環冷卻方式再回流吸收熱能。
• 浸沒式冷卻依冷卻液使存在相態變化,可分為單相(Single-Phase)與雙相(Two-Phase),單相式僅液體流動;雙
相式有氣水冷變化。
圖3-1:單相式浸沒-整機櫃均充滿礦物油/氟化物未變相 圖3-2:雙相式浸沒原理:氣體遇到冷凝管變液體
Gigabyte
資料來源 :
• 單相浸沒散熱原理
1. 伺服器垂直載入裝有不導電液體機箱,直接透過不導電液體散熱
2. 隨著伺服器主機運行升溫,直接將元件高溫熱量透過液體冷卻液引導出去,在將溫度較高的冷卻液經由熱液體導管
運輸至冷卻液監控主機(CDU),運用 CDU 泵浦介接外部達到熱交換降溫,再把已降溫的冷卻液送回主機冷卻水箱
槽中。
• 和液冷板方案相比具成本優勢,也不會有漏液導致主機板損壞的問題,目前已在導入 Intel Eagle Stream 和 AMD
Genoa 兩大平台
單相浸沒式冷卻技術介紹
29
圖3-3:液冷式分配器將冷卻液體進行循環降溫 圖3-4:單相浸沒式散熱伺服器示意圖
Gigabyte
資料來源 :
兩相浸沒式冷卻技術介紹
30
圖3-5:兩相浸沒式散熱原理 圖3-6:兩相浸沒式散熱伺服器示意圖
• 兩相浸沒式散熱原理
1. 伺服器放置於雙相浸沒式液冷液,機櫃裝不導電的介電冷卻液,浸沒的伺服器因運作產生的熱能使不導電介電液沸
騰,熱量隨著沸騰產生的蒸汽帶走,蒸氣上升與冷凝器接觸後變回液體,不斷循環達成高散熱效率。
• 兩相浸沒是液冷運算系統可應用於超大規模數據中心、高效能運算系統、邊緣運算、區塊鏈、高頻交易等場域。
Gigabyte
資料來源 :
AI 及 ESG 趨勢將加速浸沒式冷卻導入時間
31
圖3-7:全球均溫變化 圖3-8:全球資料中心 PUE 調查
國發會、Uptime Institute
• 隨著 NVIDIA 和 AMD 推出資料中心 GPU H100 和 MI 300 後,功耗躍升至 600W 以上,AI 伺服器的高效能、高功率
運算也將刺激解熱規格進一步升級。
• 聯合國氣候變遷大會中(COP 27),再度重申巴黎協定制定的 1.5°C 警戒線,並要求出席國家提出更嚴謹的減碳政策。
• 隨著資料中心運算量能、算力持續向上,目前占全球總耗電量約1-2%,企業為落實 ESG 等規範,控制能耗將變的至
關重要。
資料來源 :
浸沒式散熱為未來散熱方案中最佳選擇
32
• 浸沒式液冷能直接傳導熱能,與氣冷相比,資料中心在冷卻的營運費用將減少高達 95% ,包含伺服器功耗和機房空調
成本 ( 冷卻成本為數據中心電費的最大項支出 )。
• 運算節點無須散熱鰭片和冷卻風扇,提供更緊密的運算設備安裝,相較於器冷的整機櫃體積,在相同空間條件下,運
算密度能提高 10 倍。
• 零組件不受溫差導致材料老化、穩定性高的運作環境降低零件老化與故障的機會,減少系統需要頻繁維護的需求。
• 無須空調也能運作,透過模組化的產品設計,也能在空間有限的條件下靈活的佈屬。
表3-1:各散式方案比較
3M、Gigabyte
個股
4
33
資料來源 :
建準(2421.TW)
34
統一投顧、年報、自行整理
圖4-1:2022 年各產品線營收分佈 圖4-2:營收及毛利
單位:十萬元 (%)
• 散熱風扇大廠,三大成長引擎為伺服器、新能源車與網通:AI 及雲端伺服器訂單需求強烈,原料價格及人工費用未大
增,下半年若 AI 伺服器需求延續,年度毛利率可持續提升,預計今年車用營收占比 10% 以上。
• AI 伺服器散熱風扇需要大型且穩定空氣流動,主要競爭對手為台達電。
資料來源 :
雙鴻(3324.TW)
35
玉山證券、年報
• 散熱模組為主要營收來源,其中 PC( NB+DC )類散熱模組出貨量佔全球市占率約 25%,並深耕中國市場
• 國際雲端大廠液冷需求提升,而液冷投資門檻較高,台灣僅少數廠商出貨,雙鴻於 2024 年進入量產,ASP 有望提高
• 有利因素:VGA, MB, 電競 NB 需求提升;氣冷散熱面臨極限,液冷散熱前景看好,23Q2 已開始出貨 Cold Plate 水
冷板產品,今年底將開始出貨模組產品,而模組出貨均價為傳統氣冷的 10 倍,目前通用型伺服器也開始進入液冷解
決方案。不利因素:消費性電子產品需求疲軟,須到下半年進入伺服器新平台轉換潮,營運有望增動能。
圖4-3:2022 年產品線營收分佈 圖4-4:營收及毛利
單位:十萬元 (%)
資料來源 :
奇鋐(3017.TW)
36
玉山證券
圖4-5:2022 年產品線營收分佈 圖4-6:營收及毛利
• 伺服器比重相對其他台廠高(營收 30%),包含散熱模組、風扇、機殼的整合銷售,並提供完整解決方案。
• 看好各國通信產品、基礎建設標案推升,帶動基地台、交換器需求。
• 單相式浸沒式液冷散熱可能為未來主流,參與企業有緯創、技嘉、高力、廣運,預估 24H2 將放量出貨,其中奇鋐主
要出貨浸沒式伺服器機殼。
單位:十萬元 (%)
資料來源 :
結論
37
自行整理
綜合以下原因我們推薦散熱產業:
• 隨著 AI 伺服器算力高速成長,對散熱功率 (TDP) 需求已超過目前氣冷散熱極限 (350W),液冷以及浸漠式技術將成為
未來 AI 伺服器晶片散熱解方。
• 各地政府對資料中心 PUE 要求趨嚴,液冷式或浸沒式方案已成趨勢,其中中國部分地區 2025 年對大型資料中心的
PUE 要求低於 1.25,預期將為液冷式與浸沒式冷卻導入最快速的地區。
• 電動車將是散熱產業除了伺服器之外的主要應用場景,隨著各國政策推動、消費強勁及能源轉型需求,散熱需求及解
決方案會持續成長。
• 浸沒式冷卻技術為未來散熱解決方案中最佳選擇,加上 AI 伺服器高功率運算及綠色趨勢,浸沒式冷卻導入時間將大大
加速。

散熱產業.pdf

  • 1.
    散熱產業 1 2023/8/19 中山財管 周郁容、台大商研碩二 蔡博獻、台大政治四闕湧軒、台大外文四 程歆雅、台大財金四 江依庭
  • 2.
    Agenda 2 • 產業介紹 • 成長動能 ○伺服器晶片 ○ AI 伺服器/資料中心 ○ 5G 通訊 ○ 電動車 • 未來展望 • 個股
  • 3.
    資料來源 : 結論 3 自行整理 綜合以下原因我們推薦散熱產業: • 隨著AI 伺服器算力高速成長,對散熱功率 (TDP) 需求已超過目前氣冷散熱極限 (350W),液冷以及浸漠式技術將成為 未來 AI 伺服器晶片散熱解方。 • 各地政府對資料中心 PUE 要求趨嚴,液冷式或浸沒式方案已成趨勢,其中中國部分地區 2025 年對大型資料中心的 PUE 要求低於 1.25,預期將為液冷式與浸沒式冷卻導入最快速的地區。 • 電動車將是散熱產業除了伺服器之外的主要應用場景,隨著各國政策推動、消費強勁及能源轉型需求,散熱需求及解 決方案會持續成長。 • 浸沒式冷卻技術為未來散熱解決方案中最佳選擇,加上 AI 伺服器高功率運算及綠色趨勢,浸沒式冷卻導入時間將大大 加速。
  • 4.
  • 5.
    資料來源 : 建準(2421. TT)、雙鴻(3324. TT)、奇鋐(3017.TT)、高力 (8996. TT)、緯穎(6669. TT) 散熱產業鏈 5 上游 – 基本原料 中游 – 零組件/模組 下游 – 應用 扇葉、驅動電路板、導熱電 片、熱導管、銅或鋁塊等 散熱模組、散熱器:主要由 散熱鰭片、散熱導管以及風 扇三個部分組成 主要為電腦或其週邊設備等 終端應用產品,包括筆電、 桌機、工業電腦、伺服器、 汽車散熱、手持裝置 代表公司 • 散熱系統的主要是通過熱傳導和熱對流,將電子設備運行時產生的熱能散發出去,以保持其在適當的溫度範圍內運作。 自行整理
  • 6.
    資料來源 : 散熱系統控管溫度,是電子設備壽命與運行速度的關鍵 6 • 在正常運作期間,CPU內部的電晶體會將電力轉換為熱能(熱量),在設計 IC 時通常會設定最高時脈速度,避免系 統過熱而損毀,此時相對應廢熱散發的效率則被稱作熱設計功耗(TDP,單位為 W)。 • 散熱技術可分為傳統氣冷散熱和液冷散熱兩種。傳統氣冷散熱使用熱介面材料(TIM)、均熱片或熱導管將熱從晶片 導出,再由散熱鰭片和風扇進行散熱。液冷散熱則透過液冷板或浸沒式散熱,利用液體熱對流散出熱,達到晶片降溫。 圖1-1:氣冷式CPU冷卻器 圖1-2:水冷式CPU冷卻器 富果、Intel、自行整理
  • 7.
    資料來源 : 液冷散熱又可分為液對液、液對氣 7 • 液冷的主要原理為透過液冷板(ColdPlate),將產生熱量的元件中的熱能傳遞到封閉式冷卻迴路中的冷卻液。這個 冷卻液會透過熱交換器進行散熱,然後再流回伺服器內部循環使用。 • 液對液:液體冷卻系統需要在機房內安裝液體冷卻管路等設施,才能運行。冷卻液會被送到伺服器機房的液體冷卻管 線中,透過這些設施的冷卻管路和散熱機制,統一地將熱量排出。 • 液對氣:氣冷方式適用於現有的氣冷機房,無需額外安裝液體冷卻管路。熱交換器安裝在伺服器機櫃內,將產生的熱 能釋放到空氣中,但其冷卻效能不如液體冷卻方式。優點是氣冷式伺服器和液冷式伺服器可以同時存在於相同的設施 內。 圖1-3:液冷散熱比較 群益證券
  • 8.
    資料來源 : 使用 3D均熱板(3DVC)升級現有散熱模組 8 Celsia • 3DVC(3D Vapor Chamber)是均熱板和熱導管的結合,通過均熱板延伸的圓柱狀熱導管,使冷凝劑在內腔吸熱後 轉換為氣體上升,將熱帶離表面,再經由鰭片和風扇冷卻後,重新轉為液態流回內腔。 • 3DVC的優勢在於比起熱板可解熱的功耗更大之外,空間、體積的彈性也較大,可以根據客戶的機構配置作出調整, 更具客製化的特性,同時,瓦數可以解到 500 瓦以上,部分高階的伺服器也可以使用,更適合用於網通類的產品中, 從基地台到強波站、機房等等。 • 和液冷板方案相比具成本優勢,也不會有漏液導致主機板損壞的問題,目前已在導入 Intel Eagle Stream 和 AMD Genoa 兩大平台。 圖1-4:3DVC圖示
  • 9.
    資料來源 : 隨著晶片運算能力提升,傳統氣冷散熱技術已逼近極限 9 永豐金證券、富果、高力法說、自行整理 • 隨著晶片算力提升,主流伺服器高階CPU 之 TDP 都已達 350~400 W;GPGPU 和 Switch IC 更已突破 600W、 800W, Intel、AMD 下一代 CPU 之 TDP 也將突破 500W,傳統氣冷散熱逐漸不敷使用。 氣冷散熱 液冷散熱 單相浸沒式 兩相浸沒式 熱交換原理 氣對流 液對氣/液對液 水對水 冷卻介質 空氣 丙二醇 介電液 介電液 最大解熱(TDP) 225W 800W 800W >800W 硬體成本(USD) 3k 30k 250k~300k 300k~400k 外部冷卻裝置 冷卻水塔、冰水主機 水冷塔、冰水主機、 管線 機房規劃、水冷塔、 管線、機械手臂 機房規劃、機械手臂 表1-1:伺服器散熱方案比較
  • 10.
    資料來源 : 自行整理、digitimes10 散熱產業終端應用鏈剖析 • 散熱產業終端應用鏈大宗為大宗為筆記型電腦以及伺服器,兩者約佔整體 70% 左右出貨量。剩餘 30% 則由電動車、5G網 路、資料中心、顯卡等領域拆分。 • 近年來伺服器、AI 人工智慧、電動車、資料中心等應用端明顯呈增長趨勢,而 NB、手機等領域則逐年走下坡。 圖1-5:散熱產業應用端一覽圖
  • 11.
  • 12.
  • 13.
    資料來源 : • 散熱系統即是透過熱傳導和熱對流,將電子設備運行產生的廢熱發散出去,若廢熱無法有效發散,將影響半導體元件 的壽命和性能。 •熱設計功耗 ( TDP ) : IC 為避免系統過熱而損毀所設定的廢熱散發的最高效率。 • 傳統氣冷散熱以傳導性差的空氣作為介質,以最常見的 1U、2U 伺服器為例,臨界散熱效率分別為 350W、 400~500W。 晶片對散熱功率需求攀升 液冷技術需求提升 13 表2-1:伺服器晶片TDP比較 晶片 公司 型號 發布時間 TDP CPU Intel Granite Rapids 2024Q4 500W AMD Genoa 2022Q4 400W Turin 2024H2 600W GPU NVIDIA H100 2022Q1 700W AMD MI200 2021Q4 500W MI300 2023Q1 600W Switch IC Broadcom Tomahawk 5 2022 800W 晶片 公司 型號 發布時間 TDP 富果
  • 14.
    資料來源 : • 伺服器新平台Intel Eagle Stream 、AMD Bergamo 的效能提升,將帶動散熱零組件的板均價 (ASP) 走揚。 • Intel 推出伺服器新平台 Eagle Stream,TDP 提升至 350W、增加 30%,散熱模組單價也增加 20%。 • AMD 推出伺服器新平台 Bergamo,TDP 提升至 400W,增加 40% 。 Intel、AMD 推出伺服器新平台 散熱規格升級 14 表2-2:Intel Eagle Stream AMD Genoa 伺服器平台比較 富果、華南投顧
  • 15.
    資料來源 : Intel、AMD 推出伺服器新平台散熱規格升級(cont’d) 15 CPU 公司 型號 發布時間 TDP Intel Sapphire Rapids 2023Q2 350W Emerald Rapids 2023Q4 350W Granite Rapids 2024Q4 500W Sierra Forest-AP 2024Q4 500W AMD Milan 2021Q1 350W Genoa 2022Q4 400W Bergamo 2023Q3 400W Turin 2024H2 600W 表2-3:Intel, AMD伺服器晶片TDP比較-2 富果、華南投顧
  • 16.
  • 17.
    資料來源 : • 研究機構TrendForce 統計,2023年的 AI 伺服器占整個伺服器市場的出貨量比重約莫可以達到 9%,到了 2026 年將占 15%。論單價 (ASP) 而言,其為一般伺服器的 15 到 20倍。但是 2023 年受到 ChatGPT 應用的帶動,整體 2022 年到 2026 年的 AI 伺服器出貨量 CAGR 達 29%。 • AI 伺服器及晶片需求同步看漲,TrendForce 預估 2023 年 AI 伺服器(含搭載GPU、FPGA、ASIC 等)出貨量近 120 萬台,年增 38.4%,同步上修 2022~2026 年 AI 伺服器出貨量 CAGR 至 22%。AI 晶片 2023 年出貨量成長 46%。 • 雖然散熱占 AI 伺服器成本比重約為 1%,其仍為 AI 伺服器運作的關鍵,也是各大伺服器供應商都加重投入的部分。 TrendForce、自行整理 17 AI 伺服器晶片需求旺盛 拉抬散熱產業需求 表2-4:全球 AI 伺服器2022-2026出貨量預估 (單位: 千台)
  • 18.
    資料來源 : • 受到AI 應用帶動相關半導體技術發展, GPU 運算力必須連帶要成長數百倍。目前業界多以液冷中的單相浸沒式冷卻 技術(600W 上限值),解決高密度發熱的伺服器或零件散熱問題,然而更高階的伺服器 (e.g. ChatGPT) 散熱能力 須高於 700W 才足以因應 • TrendForce 表示,NVIDIA GPU 為 AI 伺服器市場搭載主流,市占率約 60%~70%,晶片主銷售包含 A100 與 A800, 2023H2 也陸續導入 H100 與H800,尤其新機種 H100 與 H800 平均銷售單價約 A100 與 A800 的 2~2.5 倍,加上 NVIDIA 積極銷售自家整機解決方案 • 由於 NVIDIA 的 A100/H100 缺貨情形遠大於預期,預估今年能夠運行生成式 AI 的高階 AI 伺服器僅佔全球伺服器出 貨量的不到 1%,相當於 10 萬至 15 萬台的出貨量。DIGITIMES Research 最新數據表明 2024 年 AI 伺服器市場量將 攀升 1~2% 至 15 萬至 20 萬台 AI 伺服器/晶片散熱技術需求提升 18 TechNews NVIDIA 晶片 TDP ASP A100 400W 15,000 A800 250W 12,000 H100 700W 36,500 H800 700W TBC
  • 19.
    資料來源 : • 資料中心的電力消耗主要來自電源及空調系統、伺服器及相關設施,與其他支援IT 負載及數據中心運作的各項設備。 • 各地政府對資料中心 PUE 要求趨嚴,單用氣冷式冷卻難以符合新法規,水冷式或浸沒式方案已成趨勢。 • 中國部分地區 2025 年對大型資料中心的 PUE 要求低於 1.25,預期將為水冷式與浸沒式冷卻導入最快速的地區。 群益證券、自行整理 19 各地政府對資料中心PUE要求趨嚴 液冷技術需求攀升 地區 PUE規範 執行時間 中國 1.5 ↓ 執行中 印度 1.5 ↓ 草案 歐盟 1.4 ↓ 2025 日本 1.4 ↓ 鼓勵形式 新加坡 1.3 ↓ 執行中 南韓 1.3 ↓ 2025(草案) 德國 1.3 ↓ 2025(草案) 荷蘭 1.2 ↓ 執行中 表2-7:各國 PUE 標準比較 表2-6: 不同散熱技術之 PUE 比較
  • 20.
    資料來源 : 中國工信部、發改委已有對數據中心出台相關政策 20 表2-8:中國數據中心東數西算發展規劃 圖2-9:中國移動/電信水冷板及浸沒式液冷試點 Gigabyte •根據 2023 年中國電信營運商液冷技術白皮書,中國各大電信將於 2023 年展開技術測試; 2024 年新建 10% 液冷技 術規模測試;2025 年達 50% 以上的項目應用液冷技術 • 2022 年 6 月工信部等六部門發布《 工業效能提升行動計畫 》,並指出到了 2025 年新建大型、超大型數據中心電能 利用效率 ( PUE ) 需優於 1.3,同時強調數據中心要擴大綠能利用比率,推動老舊數據中心實施系統節能改造 • 北京市發改委於 2021 出台《關於進一步加強數據中信項目節能審查等若干規定 》,要求北京市數據中心不僅僅是在 PUE 值和能耗限額,功能、在線監控、設備選用、可再生能源利用皆被重視和詳細要求
  • 21.
    資料來源 : • 國際數據資訊(IDC)研究預估從2020 年至 2025 年,全球數據資料量的年複合成長率上看 24%。以全球資料中心 一年總耗電量高達 1,980 億度、耗電占比 2% 來看,資料中心追求更低的 PUE 值,等同於降低碳排放 • 一般風冷散熱資料中心的 PUE 是 1.69,意即設備每使用100W 電力,會浪費 69W 在散熱、照明等與運算無關的耗能 上。相較之下液冷的 PUE 只有約 1.15,浸沒式最佳更可達到 1.03,由此可以看出三者之間的功耗差異 散熱技術提升有效降低資料中心耗能 21 財經新報、工研院資通所 液冷散熱 氣冷散熱 所需設備 冷卻液監控主機、 冰水主機 空調、冷熱通道、 冰水主機 伺服器所需電力 850W 1000W 總設備所需電力 120W 787W PUE 1.14 1.79 建置成本 6.1億元 5.7億元 一年所需經費 4900萬元 8900萬元 十年營運成本(含電費、設備維護、運 營等成本) 16.7億元 20.2億元 表2-9:氣冷液冷散熱成本比較 「沉浸式冷卻邊緣資料中心」 圖2-10:工研院液冷新技術五大特色
  • 22.
    資料來源 : 氣冷技術已到極限,液冷散熱可再降低 PUE 22 TechNews •由於新一代伺服器 TDP 提升到接近氣冷散熱的極限,因此電子科技大廠紛紛開始測試液冷散熱,或增加散熱空間,如 Intel 的 Eagle Stream、AMD 的 Genoa TDP 350-400 W 就達氣冷極限,使液冷散熱成為 AI 晶片主流,而 NVIDIA H100 的 TDP 達 700W,由於氣冷採 3DVC,普遍需 4U 以上空間,不符合高密度部署架構 • 以散熱系統占資料中心總耗能約 33% 來看,減少總用電量降低電力使用效率 (PUE) 的方式,包含改善散熱系統、資 訊設備,並使用再生能源,而水的熱容量是空氣的 4 倍,因此導入液冷散熱系統,液冷板只需要 1U 的空間。根據 NVIDIA 測試,若要達到相同算力,液冷所需的機櫃量可減少 66%、能耗可減少 28%、PUE 可由 1.6 降到 1.15,並 可提升運算效能
  • 23.
  • 24.
    資料來源 : 電動車中多項系統都需要散熱技術維持運作 24 工業材料雜誌、T-Global Technology、Dober 散熱類型技術 應用 氣冷 結構較簡單,便於維護 電動巴士、電動物 流車及早期的電動 車(Nissan Leaf, Soul EV 等) 液冷 系統體積小,耐震、壽命 較高,調節電池溫度調節 顯著 多種電動車優選, 如 BMW i3、Tesla 直冷 可快速且高效地將電池系 統的熱量帶走 典型方案如 BMW i3 相變化材料冷卻 常見材料有石蠟類、高級 脂肪酸類、聚烯烴、醇類 等 Gogoro 將石蠟應 用在自家電動機車 的電池包吸熱與均 溫 冷卻液特點 說明 電動車冷卻液所導電 率低 引擎需要在其冷卻液中具有熱導性,但由於可 能出現冷卻液洩漏到電池內部的故障,它需要 具有低導電率,以防止火災或爆炸的威脅。 電動車冷卻液壽命長 由於內燃機引擎運作溫度較高(190°C 對比 40/50°C),氧化和熱會更快地分解冷卻液中 的乙二醇。這使得電動車冷卻液比傳統的內燃 機冷卻液更持久。 表 2-12: 電動車散熱類型 表 2-13: 電動車冷卻液特點 • 電動車中的電池模組、ADAS 駕駛輔助系統、行車電腦系統、影音娛樂系統等皆對散熱有高需求,氣冷、液冷、直冷 及相變化材料冷卻皆有採用。
  • 25.
    資料來源 : • 由於電動車內充斥電池封包、車載智慧系統以及各種需要接電的電控元件,所以會形成電生熱的現象,需解熱工程, 否則一旦溫度過高就會對電池模組、電子元件及各類智慧系統造成運作及壽命上的影響。 •電動車的動力來源體積龐大、占了車身與底盤空間接近一半的電池模組,電池在充電與放電時會產生大量的熱能。 • 比起傳統燃油車約需花費 5 到 10 分鐘才會慢慢升溫,電動車只需 1 到 3 分鐘就會產生幾百瓦以上的熱能,所以快速 有效的熱管理成為避免電池壽命與充放電效率受到影響的關鍵。 電池模組成為電動車散熱的重中之重 25 TechNews 1. 電池頂部或是底部會搭配低導熱係數或材質很軟的導熱墊片 2. 單劑型的導熱膠泥或是雙劑型的導熱封膠作為填縫用
  • 26.
    資料來源 : • 全球電動車市場將會持續高速成長,以中、歐、美為首,加上印度、泰國及印尼推出數十億美元的電動車投資政策。 •全球電動車周邊相關消費支出在 2022 年達 4.25 兆美元,年成長率 50% 且僅 10% 來自政策,可見民間消費強勁。 • 全球電動車電池冷卻板 2022 年市場規模為 4.929 億美元,預計在 2029 年達到 6.167 億美元,預測期間的 CAGR 為 3.3%。 電動車應用受政策及消費強勁帶動,未來成長可期 26 IEA, Data Bridge 全球市場 亞太地區 北美地區 碳排影響 全球電動車熱管理系統市 場規模預期在 2029 年達 到 143 億美元,以 CAGR 24.1% 的成長率從 2021 年的 26.8 億美元成長。 亞太地區掌控硫酸市場因 為有大量的製造業需求 (硫酸是電動車電池正極 材料),帶動全球市場規 模預期在 2029 年達到 122.8 億美元。 主要電動車產業鏈參與企 業皆在美國或設有營運據 點,加上基礎建設法案政 策支持,帶動電動車市場 持續成長。 2022 年間,全球約 30% 的溫室氣體排放減少量來 自於中國的交通工具電氣 化。到 2050 能源淨零排 放情境下,將有 25% 減 少的碳排來自重型車輛 (heavy-duty vehicles) 的電氣化。 表 2-14: 電動車展望整理
  • 27.
  • 28.
    資料來源 : 未來伺服器散熱解方:浸沒式冷卻技術 28 • 浸沒式冷卻是液冷技術的一種,透過將伺服器直接浸泡在不導電的液體中,直接將零組件產生的熱能傳導給液體,溫 度上升的液體在透過循環冷卻方式再回流吸收熱能。 •浸沒式冷卻依冷卻液使存在相態變化,可分為單相(Single-Phase)與雙相(Two-Phase),單相式僅液體流動;雙 相式有氣水冷變化。 圖3-1:單相式浸沒-整機櫃均充滿礦物油/氟化物未變相 圖3-2:雙相式浸沒原理:氣體遇到冷凝管變液體 Gigabyte
  • 29.
    資料來源 : • 單相浸沒散熱原理 1.伺服器垂直載入裝有不導電液體機箱,直接透過不導電液體散熱 2. 隨著伺服器主機運行升溫,直接將元件高溫熱量透過液體冷卻液引導出去,在將溫度較高的冷卻液經由熱液體導管 運輸至冷卻液監控主機(CDU),運用 CDU 泵浦介接外部達到熱交換降溫,再把已降溫的冷卻液送回主機冷卻水箱 槽中。 • 和液冷板方案相比具成本優勢,也不會有漏液導致主機板損壞的問題,目前已在導入 Intel Eagle Stream 和 AMD Genoa 兩大平台 單相浸沒式冷卻技術介紹 29 圖3-3:液冷式分配器將冷卻液體進行循環降溫 圖3-4:單相浸沒式散熱伺服器示意圖 Gigabyte
  • 30.
    資料來源 : 兩相浸沒式冷卻技術介紹 30 圖3-5:兩相浸沒式散熱原理 圖3-6:兩相浸沒式散熱伺服器示意圖 •兩相浸沒式散熱原理 1. 伺服器放置於雙相浸沒式液冷液,機櫃裝不導電的介電冷卻液,浸沒的伺服器因運作產生的熱能使不導電介電液沸 騰,熱量隨著沸騰產生的蒸汽帶走,蒸氣上升與冷凝器接觸後變回液體,不斷循環達成高散熱效率。 • 兩相浸沒是液冷運算系統可應用於超大規模數據中心、高效能運算系統、邊緣運算、區塊鏈、高頻交易等場域。 Gigabyte
  • 31.
    資料來源 : AI 及ESG 趨勢將加速浸沒式冷卻導入時間 31 圖3-7:全球均溫變化 圖3-8:全球資料中心 PUE 調查 國發會、Uptime Institute • 隨著 NVIDIA 和 AMD 推出資料中心 GPU H100 和 MI 300 後,功耗躍升至 600W 以上,AI 伺服器的高效能、高功率 運算也將刺激解熱規格進一步升級。 • 聯合國氣候變遷大會中(COP 27),再度重申巴黎協定制定的 1.5°C 警戒線,並要求出席國家提出更嚴謹的減碳政策。 • 隨著資料中心運算量能、算力持續向上,目前占全球總耗電量約1-2%,企業為落實 ESG 等規範,控制能耗將變的至 關重要。
  • 32.
    資料來源 : 浸沒式散熱為未來散熱方案中最佳選擇 32 • 浸沒式液冷能直接傳導熱能,與氣冷相比,資料中心在冷卻的營運費用將減少高達95% ,包含伺服器功耗和機房空調 成本 ( 冷卻成本為數據中心電費的最大項支出 )。 • 運算節點無須散熱鰭片和冷卻風扇,提供更緊密的運算設備安裝,相較於器冷的整機櫃體積,在相同空間條件下,運 算密度能提高 10 倍。 • 零組件不受溫差導致材料老化、穩定性高的運作環境降低零件老化與故障的機會,減少系統需要頻繁維護的需求。 • 無須空調也能運作,透過模組化的產品設計,也能在空間有限的條件下靈活的佈屬。 表3-1:各散式方案比較 3M、Gigabyte
  • 33.
  • 34.
    資料來源 : 建準(2421.TW) 34 統一投顧、年報、自行整理 圖4-1:2022 年各產品線營收分佈圖4-2:營收及毛利 單位:十萬元 (%) • 散熱風扇大廠,三大成長引擎為伺服器、新能源車與網通:AI 及雲端伺服器訂單需求強烈,原料價格及人工費用未大 增,下半年若 AI 伺服器需求延續,年度毛利率可持續提升,預計今年車用營收占比 10% 以上。 • AI 伺服器散熱風扇需要大型且穩定空氣流動,主要競爭對手為台達電。
  • 35.
    資料來源 : 雙鴻(3324.TW) 35 玉山證券、年報 • 散熱模組為主要營收來源,其中PC( NB+DC )類散熱模組出貨量佔全球市占率約 25%,並深耕中國市場 • 國際雲端大廠液冷需求提升,而液冷投資門檻較高,台灣僅少數廠商出貨,雙鴻於 2024 年進入量產,ASP 有望提高 • 有利因素:VGA, MB, 電競 NB 需求提升;氣冷散熱面臨極限,液冷散熱前景看好,23Q2 已開始出貨 Cold Plate 水 冷板產品,今年底將開始出貨模組產品,而模組出貨均價為傳統氣冷的 10 倍,目前通用型伺服器也開始進入液冷解 決方案。不利因素:消費性電子產品需求疲軟,須到下半年進入伺服器新平台轉換潮,營運有望增動能。 圖4-3:2022 年產品線營收分佈 圖4-4:營收及毛利 單位:十萬元 (%)
  • 36.
    資料來源 : 奇鋐(3017.TW) 36 玉山證券 圖4-5:2022 年產品線營收分佈圖4-6:營收及毛利 • 伺服器比重相對其他台廠高(營收 30%),包含散熱模組、風扇、機殼的整合銷售,並提供完整解決方案。 • 看好各國通信產品、基礎建設標案推升,帶動基地台、交換器需求。 • 單相式浸沒式液冷散熱可能為未來主流,參與企業有緯創、技嘉、高力、廣運,預估 24H2 將放量出貨,其中奇鋐主 要出貨浸沒式伺服器機殼。 單位:十萬元 (%)
  • 37.
    資料來源 : 結論 37 自行整理 綜合以下原因我們推薦散熱產業: • 隨著AI 伺服器算力高速成長,對散熱功率 (TDP) 需求已超過目前氣冷散熱極限 (350W),液冷以及浸漠式技術將成為 未來 AI 伺服器晶片散熱解方。 • 各地政府對資料中心 PUE 要求趨嚴,液冷式或浸沒式方案已成趨勢,其中中國部分地區 2025 年對大型資料中心的 PUE 要求低於 1.25,預期將為液冷式與浸沒式冷卻導入最快速的地區。 • 電動車將是散熱產業除了伺服器之外的主要應用場景,隨著各國政策推動、消費強勁及能源轉型需求,散熱需求及解 決方案會持續成長。 • 浸沒式冷卻技術為未來散熱解決方案中最佳選擇,加上 AI 伺服器高功率運算及綠色趨勢,浸沒式冷卻導入時間將大大 加速。