Professional Documents
Culture Documents
PCB 202405
PCB 202405
-成也AI,敗也AI
福邦投顧 研究部
2024.05
結論:AI重塑PCB+CCL的供應格局
1. 硬板-高階板供應稀缺,GB200 PCB產值增加明顯
• AI伺服器、交換機:主流客戶大量於基礎設施採用HDI製程產品,有利具備高
階製程、生產大面積經驗廠商,例如欣興(3037)-NVidia主要PCB供應商。
• PCB仰賴HDI製程提升出貨單價:福邦預估從H100升級至B100/B200、GB200時,
每GPU產值提升20%/60%+;交換機PCB每單位報價是傳統多層板的一倍。
• AI終端需要HDI製程: AIPC、自動駕駛PCB均需要大量使用HDI製程,廣泛見到
二壓以上製程產品,有利金像電(NB)、健鼎/定穎(自動駕駛)的發展。
2. CCL-設計變動下,產值下滑顯著
• AI伺服器產值下滑:福邦預估從H100升級至B100/B200、GB200時,每GPU產值
增加7%/下滑70%+。
• 800G材料升級之路仍需觀察:主流800G的設計架構,Infiniband架構設計可望
採用M7等級材料,不需升級至M8等級;尚未放量的乙太網交換機,維持M8材
料等級。
• GB200新架構下,聯茂為最大受惠者(配板材料供應商),台光電僅剩下NVL模
組板和交換機生意機會,台燿亦獲得配電板生意。
【僅供內部教育訓練使用,嚴禁外流】 2
結論:AI重塑PCB+CCL的供應格局
3.建議關注個股:
• 8358金居:銅箔基板廠上游銅箔主要供應商(ex:聯茂),受惠漲價、一般伺服
器回溫、GB200供應商,已切入斗山供應體系。
• 6213聯茂:GB200最大受惠者,與Nvidia關係好,已經啟動漲價,一般伺服器
需求回溫。
• 3037欣興:Nvidia首選PCB供應商,24H2將進入CPU載板供應,2025年有望進入
GPU載板供應。
• 2368金像電:產能滿載,四大雲廠商、美超微、Dell/HP主要供英商,2024年
AI相關營收成長100%。
4. 建議關注題材:AI伺服器、NB/PC換機、自動駕駛、人形機器人
5. 風險提示:GB200量產時程不如預期
【僅供內部教育訓練使用,嚴禁外流】 3
目錄
一 雲端巨頭資本支出與伺服器出貨預估 5
二 一般伺服器與AI伺服器成本估算 10
三 伺服器新平台帶動PCB&CCL單價提升 12
四 AI 伺服器PCB&CCL供應關係 18
五 Nvidia H100升級至B100的供應鏈預測 20
六 800G需求帶動PCB製程升級 25
七 AI PC 與換機潮對PCB、CCL要求升級 31
八 自動駕駛帶動PCB、CCL的升級 29
36
九 相關個股介紹 44
【僅供內部教育訓練使用,嚴禁外流】 4
雲端中心三巨頭資本資出持續上修
根據彭博最新共識數字,扣除Amazon,三大CSP廠的2024年YoY+44%
(24Q1預估為+25%),2024年雲端廠商上修資本支出。(2024Q2更新)
資料來源:彭博、福邦投顧
單位:百萬美元
【僅供內部教育訓練使用,嚴禁外流】 5
全球伺服器出貨2024年小幅成長
短期:受到AI伺服器排擠效應影響,參考Digitimes最新數據預估,2023年伺服
器出貨量YoY-20.4%;2024年可望恢復增長,但仍有AI伺服器排擠效應,
YoY+4~7%。
中長期:根據IDC資料預估,伺服器出貨量成長率下修至2022-27CAGR+2%。
圖2:全球伺服器出貨量成長預測
2017 2018 2019 2020 2021 2022 1Q23 2Q23 3Q23 4Q23 2023 1Q24(F) 2Q24(F) 2024(F) 2025(F) 2026(F) 2027(F)
Gartner 出貨量 12,918 13,815 11,821 12,647 13,644 14,730 15,784
2024.3 YoY 6.9% -14.4% 7.0% 7.9% 8.0% 7.2%
QoQ
Digitimes 出貨量 13,910 15,238 15,060 16,255 17,008 18,122 3,788 3,532 3,520 3,592 14,432 3,534 3,601 15,354 19,122 20,270 21,547
2024.04 YoY 9.5% -1.2% 7.9% 4.6% 6.5% -14.0% -22.4% -25.9% -18.6% -20.4% -6.7% 2.0% 6.4% 24.5% 6.0% 6.3%
QoQ -14.2% -6.8% -0.3% 2.0% -1.6% 1.9%
IDC 出貨量 10,241 11,849 11,800 12,668 13,546 14,960 3,018 3,084 3,066 3,128 12,297 12,874 14,239 15,399 16,486
預估 14,945 3,002 3,477 4,005 3,425 13,533 2,975 3,112 12,874 14,239 15,399 16,486
2024.3 YoY 15.7% -0.4% 7.4% 6.9% 10.4% -10.0% -19.9% -22.8% -17.4% -17.8% -1.4% 0.9% 4.7% 10.6% 8.1% 7.1%
QoQ -20.3% 2.2% -0.6% 2.0% -13.1% 4.6%
1.單位:千台
2. Digitimes預估數為板卡,IDC等預估為機箱
資料來源:福邦投顧整理(April.2024)
【僅供內部教育訓練使用,嚴禁外流】 6
雲巨頭大模型持續升級,有利上游拉貨
四大CSP對AI的關注程度持續上升,AI為2024-25年各家必投項目,對於2024-25年高階伺服器、光
通訊的升級有顯著幫助。
表1:國際四大CSP資本支出和大模型近況
公司 內容 資料來源:各公司(2024Q2),福邦投顧整理
公司 內容
微軟 1. GPT-4o:多模態架構,能夠在同一個神經網路聽說讀寫,文字、聲音、圖片直接互動產生,增加聲音互動
和攝像頭辨識(先前各自獨立一個神經網路),提供即時翻譯等功能
2. Sora 文生影音封閉模型,通用人工智慧AGI實現的可能性:
• 透過1920*1080的解析度訓練,推論產出約1分鐘的連貫式影音,優於當前現有的競爭模型(3~4秒、人工剪
輯)。
• Sora模型能保證3D空間和比例的穩定,優於其他AI模型。
• 遵循Scaling Law,算力需求將持續增加,訓練算力估是Stable Diffusion v1-5的100倍以上:
一般動態影片需要30fps,一分鐘需要產出1800張圖,推升算力需求,算力提升越高,影片解析度越高。
影片場景的穩定、人物表情、配件、服裝,每增加一個維度,都需要重新產出圖片,都需要耗用算力。
3. Surface Pro 10&Laptop 6: 預計搭載Core Ultra和高通Snapdragon X Elite,也發表AI Explorer功能,使用者可
透過此功能在任何程式上搜尋文件、圖片和聊天。
Google 1. AI助理:Astra專案可辨識物體、顏色、地理位置,亦具有取名功能。
2. VEO:影音生產模型,能建立一分鐘1080P影片,可以理解航空鏡頭和延時攝影等專有名詞。
3. Imagen3:最高品質的文生圖模型,更精細的圖片細節,文字效果更佳。
4. Google搜尋:推出AI Review,用戶可以通過在搜尋結果的頂部,獲取由 AI 大模型產生的摘要
5. Google Photos:推出新功能Ask Photos,可以一鍵從圖庫中幫你找到想要的照片和視頻。
6. Google Workspace:提供的一套生產力和協作工具中,包括信箱、Docs、Calendar等。
7. NotebookLM:可基於原始檔案產生個性化和互動式音訊對話。
8. Gemini App:可直接對話,並隨時中斷對話。
AI伺服器出貨量預估(GPU系列訓練+推理)
2,500 100.00%
GPU系列伺服器 YOY
78% 80.00%
2,000 70%
60.00%
1,500
單位:千台
40.00%
30%
19% 20.00%
1,000 14%
0.00%
500
-20.00%
-23%
- -40.00%
2019 2020 2021 2022 2023(E) 2024(F) 2025(F)
資料來源:Trendforce,IDC,產業調研,福邦投顧預估
【僅供內部教育訓練使用,嚴禁外流】 9
伺服器BOM表估算-PCB佔比不高,價值成長驚人
伺服器分成一般型、訓練型、推理型,AI訓練型和推理型由於高性能計算等需求,規格均會較一般型提
升,一般型伺服器單價約在3,000~15,000美金、AI用伺服器約200,000~3,000,000美金。
(估算假設:一般型9,500美金、訓練型250,000美金、推理型60,000美金、訓練+推理混合150~300萬美金)
AI相較於一般型,新增GPU,舊有的規格升級部分,來自於儲存裝置(用量提升)、散熱(氣冷轉水冷)、電
源(能耗提升)、PCB(耗損、散熱要求提升),GB200架構下採用4+9+5/8+9+10的設計,對PCB有更多的需求,
估約較訓練型成長1~2倍(同樣配置下)。
表3:AI伺服器BOM表預估
訓練型 成本 訓練型/一般型 成本 訓練+推理整合 成本 較訓練型
類型 一般型 成本佔比 推理型
7-8U 佔比 產值增幅(%) 佔比 2U RACK 佔比 增加(%)
x86 CPU * 2 21%x86 CPU*2 2.1% x86 CPU*2 13.9%Grace*18
計算 77%
GPU 0%H100*8 74.0% L4/L40/L40S*4 38.8%B100*36
3200Mhz*12 19%3200Mhz*24 1.5% 100% 3200Mhz*24 10.0%9TB LPDDR5 0.2%
記憶體
HBM 0%HBM*8 7.6% HBM 0%HBM 192G *18 7.2%
儲存
SSD 41%SSD 4.2% 150% SSD 27.7%SSD 1.2%
空間
晶片互連 PCIE*11 3%Nvlink+Nvswitch 8.4% 233% PCIE 0.8%NVSWITCH 0.8%
網卡 10G網卡 1%10G網卡 0.1% 10G網卡 0.7%DPU+CX網卡 4.1%
OAM+GPU
UBB+OAM+ Tray+
PCB CPU主板 5% 0.8% 300% CPU主板 2.9% 1.4% 148%
交換板+CPU主板 NVLINK
SWITCH
電源 800~1200W 5%2800~3000W 0.8% 300% 1000~2000W 3.3%5,500W 1.0%
散熱 風冷 0%風冷 0.3% 1,279% 風冷 0.2%水冷 2.9%
機殼、
其他 機殼、連接器等 4%機殼、連接器等 0.2% 機殼、連接器等 1.7% 4.4%
連接器等
合計 100% 100% 100% 100%
資料來源:福邦投顧整理預估
【僅供內部教育訓練使用,嚴禁外流】 10
伺服器中需要運用PCB的部份
伺服器主要PCB類型分為主板、背板、交換板、電源板、網卡板,以及交換器
段的主板、背板。
表4:伺服器PCB分佈
圖5:伺服器結構 序號 名稱 PCB種類
3 主板+OCP 主板PCB
模組 光通訊模組用PCB
記憶體模組PCB+
記憶體BT載板
4 PSU(副板) 電源背板
6 風扇板(副板) 風扇控制板
7 互聯中板(副板) 背板
9 Switch板+Riser+硬 交換板、ASIC用
碟模組(副板) 載板、硬碟背板、
Nand BT載板、
Raid 卡板、Riser
卡板
10 NVIDIA HGX GPU載板、
GPU模組(主板) NVSwitch、
GPU加速卡、
資料來源:浪潮英信伺服器技術手冊,福邦投顧整理 GPU UBB
【僅供內部教育訓練使用,嚴禁外流】 11
伺服器新平台換代帶動單價躍升-PCB
層數逐代提升,對於PCB製造工藝的要求也在增加,層數提升,對良率的控制難
度提高,除了傳統高多層的設計方案,亦有導入HDI的製程;若是有運用到背鑽
製程,產值多增加10~15%。
表5:伺服器平台與PCB層數演進
推出時間 2018 2020 2022 2024 2026
PCIe Gen 3.0 4.0 5.0 5.0(II) 6.0
【僅供內部教育訓練使用,嚴禁外流】 12
伺服器新平台換代帶動單價躍升-CCL
CCL 在傳輸速率隨著換代翻倍下,要求有更低的Dk(介電常數)、更低的Df(介質
耗損)、更低粗糙度(Ra),技術難度更高,使得價值提升。
表6:伺服器平台與CCL等級演進
推出時間 2018 2020 2022 2024 2026
CCL材料等級 Mid Loss Mid Loss~ Very /Ultra Very /Ultra Super Ultra
Low Loss Low Loss Low Loss low loss
CCL 代表 M2以上 M4以上 M6以上 M6以上 M7以上
ASP(TWD/張) 800 1,200 2,000 1,000~2,000 2,000~3,000
PCIe Gen 3.0 4.0 5.0 5.0 6.0
傳輸速率 8GT/s 16GT/s 32GT/s 32GT/s 64 GT/s
記憶體規格 DDR4 DDR4 DDR5 DDR5 DDR5
Intel 平台 Purley Whitley Eagle Stream Birch Stream Oak Stream
CPU型號 SkyLake; Cooper / Sapphire/ Sierra Forest ; CleanWater Forest;
CasadeLake Ice Lake Emerald Rapids Granite Rapids Diamond Rapids
AMD平台 Zen Zen2;Zen3 Zen4 Zen5 Zen6
CPU型號 Naples Rome;Milan Genoa Turin Venice
資料來源:產業調研、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 13
AI伺服器用PCB產值為一般型的3~4倍
參考雲端大廠對於AI伺服器的設計,最高階的層數來到交換器等級。
CCL材料採用領先廠商台光電/斗山(Nvidia),其餘競爭同業一同競爭客製化產品;供應
AI伺服器板的廠商相對較少,屬於寡占市場,擁有優異的HDI製程能力者,可望獲得更多
的訂單,多層板PCB供應商為金像電、健鼎、博智、WUS、TTM、韓國ISU、勝宏、景旺、臻
鼎(先豐)、欣興;高階HDI供應商欣興、勝宏、金像電、健鼎、定穎、華通。
PCB單價來看,會較一般的方案(Whitley平台16L)增加75~150%(若有通孔、盲埋孔等會
更高) 。
表7:AI伺服器UBB設計方案
低階 中階 高階
PCB層數 20L 24L 28L
CCL材料 M6+ M7+ M8
FR4 FR4
(High TG、Low CTE) (High TG、Low CTE)
混壓 混壓
PCB ASP(TWD/平呎) 3,500+ 4,000+ 5,000+
資料來源:產業調研、福邦投顧整理預估
【僅供內部教育訓練使用,嚴禁外流】 14
AI 伺服器PCB組成BOM分析
拆解Nvidia DGX A100,AI伺服器PCB涉及GPU Board Tray、CPU Mother Board Tray、
其他,整體產值估計1,697美元,產值配比來看,GPU 79%、CPU 19%、其他2%
一般型伺服器產值約300~400美金,若採用AI訓練型(A100)的配置,將會多出一張GPU板
產值,整體產值會較一般型增加3~4倍(PCB+載板)。
圖6:NVidia PCB產值組成和剖面圖 資料來源:NVidia、福邦投顧整理
DGX A100 的PCB產值組成
2%
19%
79%
GPU板組 CPU板組 其他
【僅供內部教育訓練使用,嚴禁外流】 15
開放式加速型基礎設施-HIB
雲端廠商取得Nvidia H100 SXM模組,交由ODM廠商處理L10部分,為了讓GPU和CPU、網
卡等以PCIE協定的方式進行溝通,會有一張專門用於PCIE協定的溝通板—Host
Interface Board(HIB),為當前為市場所知的Switch Board。
NVIDA A100架構為4顆PCIE Switch對應8顆A100 GPU;升級至H100,設計架構為8顆
PCIE Switch對應8顆 H100 GPU(1 PCIE :1 OAM設計架構)。
根據訪查,HIB板的設計架構同UBB等級,採用M7等級CCL材料,層數設計20~30層,有
利出貨廠商毛利率。
圖7:HIB範例 圖8:ODM廠設計的OAI架構
【僅供內部教育訓練使用,嚴禁外流】 資料來源:OCP,福邦投顧整理 16
開放式加速器基礎設施PCB彙整
表8:AI 伺服器PCB 比較
OAI-OAM OAI-UBB OAI-HIB MotherBoard
層數 20~30L 20~30L 20~30L 16~20L
(NV:16~20L)
CCL M6~M7 M7以上 M7以上 M6
材料等級
製程 四階HDI以上 多層板~ 多層板 多層板
工藝 一壓HDI
功能 乘載GPU 或ASIC 乘載8顆 與UBB、BMC和 PCIE 搭載CPU、記憶體等元
的模組板 加速卡模組和 Switch、PCIE擴充槽做共 件
連結網路拓樸 面連接(連結GPU、CPU、
DPU等)
資料來源:福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 17
AI伺服器的PCB供應鏈關係-A/H100&ASIC
GPU (ASIC)Board:
(1) NVidia方案-HGX基板:Nvidia設計,欣興製造OAM後,交工業富聯打件;TTM、滬士電子製造UBB,交緯創、工
業富聯打件,最後Nvidia供應給所需的ODM廠(客戶代工廠)。
(2) ODM方案(專案):
• GPU加速卡掌握在Nvidia, ODM參考Nvidia的設計,設計UBB(ex:MGX、Oberon);雲廠商(ex:Google)可採購單
張H100加速卡,進行客製化UBB設計(韓系、台系板廠)。
• CSP廠商採用ASIC的設計(ex:TPU),亦需要使用到OAM、UBB,ODM廠會找尋適合的板廠配合。
表9:AI伺服器PCB供應鏈關係 資料來源:產業調查、福邦投顧整理
項目 CCL供應商 PCB供應商 載板主要供應商 板卡供 設計方案掌握者
應商
HGX-GPU 台光電(H系列) UBB(PCB): Ibiden 鴻海、 Nvidia
Board Tray TTM、滬電 緯創
OAM、網卡(HDI):
欣興100%
ODM- AMD、AWS Trainium:台光電 AMD:金像電、深南電路 Ibiden(NV/AMD) ODM廠 AMD、Intel、
GPU/ASIC AWS Inferentia、MGX、中系ASIC:聯 AWS Trainium:生益電子、滬士電、 AT&S(AMD) ODM(MGX)、
Board Tray 茂 高技 欣興(ASIC) ASIC(CSP廠商)
中系ASIC:生益 AWS Inferentia:生益電子、滬士電、 南電(ASIC)
Google TPC:Panasonic 金像電
Google TPU:金像電、ISU
MGX:金像電、滬士電、生益電子等
ODM- 台光電、台燿 GCE、TTM、ISU、 欣興、南電、 ODM廠 CSP廠商
SwitchBoard 健鼎等 景碩 (委託ODM設計)
CPU 台光電、生益(中系)、聯茂、 GCE、WUS、TTM、、VGT、ISU、 Ibiden、AT&S、 ODM廠 CPU廠商
Motherboard Panasonic、台燿 廣和科技、奧士康、健鼎等 欣興、南電 CSP廠商
【僅供內部教育訓練使用,嚴禁外流】 18
AI伺服器中的推論-L40S
L40S採用非CoWoS製程,屬於RTX4000/6000系列的伺服器使用版本,未使用Nvlink傳輸,有利企業
級用戶採用,建立私人AI資料中心,與A/H100分屬不同的市場。
應用:推論型AI(影響雲端廠商自研ASIC 和 AMD MI系列滲透)
載板: 約10層的設計,供應商iBiden、欣興
CCL供應商:採用M6 Very Low loss等級材料,主要供應商聯茂。
OAM: 採用3階HDI設計,單價預估50~60美金,主要供應商勝宏科技,二供滬士電子。
板卡:工業富聯獨供。
ODM:廣達、Supermicro等。
表10:L40S與競爭產品規格比較
L40S MI300 Inferentia2 TPU v5e Gaudi2
廠商 Nvidia AMD Amazon Google Intel
製程 4nm 5nm 5nm 7nm 7nm
算力(TFLOPS) 91.6(FP32) 47.87(FP32) 47.5(FP32) 197(BF16) TBC
733(BF16) 312(BF16) 190(FP8/BF16)
資料來源:福邦投顧繪製 資料來源:福邦投顧繪製
註:圖中虛線為PP
【僅供內部教育訓練使用,嚴禁外流】 21
H100,B100,GB200 PCB/CCL-PCB產值升,CCL產值降
H100的主板PCB產值預估213美金/GPU,至B100時可望提升至255美金/GPU,GB200時,可望提升至
NVL36的 473美金/GPU 、NVL72的341美金/GPU,分別提升122%、60%。
CCL部分,H100時的產值約為63美金/GPU,B100時的產值提升7%;GB200時,受到設計影響,下滑至
NVL36的 18美金/GPU 、NVL72的13美金/GPU,分別下滑71%、79%。
資料來源:產業調研、福邦投顧整理預估
表12: H100 VS.B100產值
HGX CCL A100 H100 B100
HGX PCB產值 A100 H100 B100
CPU AMD Milan Intel EGS Intel EGS/Birch
CPU AMD Milan Intel EGS Intel EGS/Birch
16~18L多層
12~14L多層 16~18L多層 PCB 12~14L多層板 20L+ 多層板
PCB 20L+ 多層板 板
板 板 CPU主板
CPU主板 CCL 材質 M4 M6 M6
CCL 材質 M4 M6 M6 (4張)
(4張) 面積
面積 1.10 1.46 1.80
0.16 0.16 0.18 (平方米)/台
(平方米)/台
ASP(美元) 800 1,200 1,320 ASP(美元) 175 292 360
HDI 16L(4+8+4) 18L(5+8+5) 20L(5+10+5) HDI 16L(4+8+4) 18L(5+8+5) 20L(5+10+5)
CCL 材質 M6+ M6+ M7+M4 CCL 材質 M6+ M6+ M7+M4
OAM OAM
面積 面積
(8*4) 0.24 0.24 0.24 (8*4) 0.83 0.83 1.25
(平方米)/台 (平方米)/台
ASP(美元) 2,080 2,720 3,360 ASP(美元) 222 222 275
PCB 24L多層板 24L多層板 24L(低階一壓HDI) PCB 24L 24L 24L
CCL 材質 M7 M7 M7 CCL 材質 M7 M7 M7
UBB UBB
面積 面積
(4張) 0.23 0.23 0.23 (4張) 3.2 3.2 3.2
(平方米)/台 (平方米)/台
ASP(美元) 2,895 2,895 3,474 ASP(美元) 1,510 1,510 1,510
合計(美元) 5,775 6,815 8,154 合計(美元) 1,907 2,024 1,714
單GPU的PCB產值 180 213 255 單GPU的CCL產值 60 63 54
UBB供應鏈 TTM、滬電 TTM、滬電 TTM、滬電、欣興
【僅供內部教育訓練使用,嚴禁外流】 UBB供應鏈 台光電 台光電 斗山
22
OAM供應鏈 欣興、滬電 欣興 欣興 OAM供應鏈 台光電 台光電 斗山
GB200 PCB&CCL預估
表13: GB200 主板PCB&CCL 產值 資料來源:產業調研、福邦投顧整理預估
GB200 PCB主板產值 說明 NVL36 NVL72
CPU+GPU 1*Grace+2*B200 1*Grace+2*B200
HDI 22L (5+12+5) 22L (5+12+5)
ComputeTray(2*9/2*18) CCL等級 M7+M4 M7+M4
面積(平方米) 1.15 2.31
ASP(美元) 7,560 15,120
HDI 24L(6+12+6) 24L(6+12+6)
CCL等級 M7+M4 or M8+M6 M7+M4 or M8+M6
Nvlink Switch 模組板(1*9)
面積(平方米) 1.17 1.17
ASP(美元) 9,450 9,450
合計(美元) 17,010 24,570
單GPU的PCB產值 473 341
HDI 供應鏈 欣興、滬電 欣興、滬電
GB200 PCB主板CCL產值 說明 NVL36 NVL72
CPU+GPU 1*Grace+2*B200 1*Grace+2*B200
HDI 22L (5+12+5) 22L (5+12+5)
ComputeTray(2*9/2*18) CCL等級 M7+M4 M7+M4
面積(平方米) 5.76 11.53
ASP(美元) 317 634
HDI 24L(6+12+6) 24L(6+12+6)
CCL等級 M7+M4 M7+M4
Nvlink Switch 模組板(1*9)
面積(平方米) 5.85 5.85
ASP(美元) 322 322
合計(美元) 639 956
單GPU的CCL產值 18 13
【僅供內部教育訓練使用,嚴禁外流】
ComputeTray CCL 斗山 斗山
23
Nvlink Switch 模組板CCL 台光電 or 斗山 台光電 or 斗山
現有資料中心架構不利於AI訓練
傳統資料中心採用三層結構(縱向傳輸:用戶 to IDC or Cloud),雲端體系採用開放
式架構(Leaf-Spine),增加了更多橫向傳輸(資料中心內部),交換機數量變多,網路
規模擴大。
資料中心的葉脊架構若面臨流量增加,將會面臨網路阻塞,不利AI訓練需求;Nvidia的
Infiniband的Fat Tree架構,這類無阻塞技術在為確保網路頻寬不收斂,上下行頻寬需要
保持一致,有利光通訊模組的使用。
推理型架構方案可採用過去葉脊式設計,200G/400G為主的技術架構。
表14:資料中心架構比較
客戶類型 傳統企業 北美雲端 中國雲端 AI訓練
資料中心 資料中心 資料中心 資料中心
規模 小 大 中/大 大
價構 三層架構 Spine/leaf架構 Spine/leaf架構 Fat Tree架構
流量& 小 大 中/大 大
流向 南北向為主 東西向為主 東西向為主 東西向為主
光模組 1G/10G 50G/400G 25G/100G 400G/
速率 800G~1.6T
資料來源:Hisilicon 白皮書、產業調研、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 24
AI伺服器需求加速800G光通訊模組採用
Nvidia在2018年发布第一代NVSwitch,至今進入第三代;第三代在伺服器外部
添加第二層NVSwitch,以解決東西向GPU的串聯,NVLink網路一個POD可連結32個
伺服器,256個GPU,並提供57.6TB/s的頻寬。
根據Nvidia H100架構,Nvlink需要18對、36個OSFP(可用於800G),一個SUPER
POD需要36*32=1,152個800G光通訊模組,光通訊模組:GPU=3:1
圖9:NVidia H100方案
資料來源:NVidia、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 25
雲端資料中心光通訊速率技術路線圖(2023.12更
新)
Google:2022年採用2*200G FR4 (OSFP、中際旭創供貨);2023年會提升採購
2*200G(需求量YOY+40%),以及採購800G和400G SR8產品。
Amazon:2022年100G DR1、400G DR4為主;2023年開始採用2*200G FR4架構,上半
年有庫存調整影響,下半年會開始採購,2024年需求至約400萬支(VS.原2023年需求約
140~150萬支),新增的250~260萬支需求用於AI用途機率高。(新易盛、中際旭創),
2024年下半年可能轉400G矽光方案。
Meta:2022年200G FR4為重心,佔有70%的市場,2023年與2022年200G需求YOY持
平,亦會開始部分轉換至400G。
Microsoft:2022年公司著重在資料中心互聯,以400GZR/ZR+為主,以及Leaf to Spine 的
400G DR4; 2023年400G DR4和400GZR4+的需求量+30%。
2023年出貨量約380萬套,2024年預估400G全年需求約800萬套(上游與800G重疊)。
表15:四大CSP速率路線圖
2020/2021 2022 2023 2024 2025-27 光收發模組
Google 400G 400G 400G→800G 800G→1.6T 1.6T OSFP
Amazon 400G 400G 400G 400G→800G 1.6T(26-27) QSFP-DD
Microsoft 400G 400G 400G→800G 800G→1.6T? 1.6T(26-27) OSFP/QSFP-DD
Meta 200G 200G 200G→400G 400G→800G 1.6T(25) QSFP-DD
資料來源:JPM、中際旭創、福邦投顧
【僅供內部教育訓練使用,嚴禁外流】 26
800G瓶頸將限制交換機出貨
2023年800G採購量達150萬套(單模約100~110萬套(G的需求),多模50萬套(N的需求)。
2024年800G需求達到1000萬套,其中多模40%,單模60%;Nvidia採購需求300萬套多
模+100萬套單模;Google採購需求300萬套(240萬套單模,60萬套多模);Meta約150萬
套;上游EML(Lumentum+Broadcom)產能可供應約350-400萬套單模,供應難以滿足
需求。
2024年1.6T出貨量預估10萬套,預計在24Q4出貨,Nvidia報價2,000美金(傳統可插拔方
案)。
2025年800G需求預估1,200萬套,1.6T(6月有望有25Q1的預期)。
CPO方案:目前品牌端在CPO採用上興趣不高,仍是以傳統PCB設計為主,主要考量可靠度和維修
成本;NVidia會於2024年OFC展中強調會加快NVLink往光傳輸發展,未來也將使用CPO方案。
【僅供內部教育訓練使用,嚴禁外流】 27
交換機市場:2024年800G加速
根據Dell’Oro數據,資料中心交換器市場於2022年時,產值約在157億美元,
其中100G佔43%、200G佔比4%,400G佔15%;2023年200G比重提升至
6%(YOY+75%);2023/24年400G比重提升至20%(YoY+43%)/28%(YoY+46%);2023/24年
800G佔比從1%提升到4%(YOY+394%)、14%(YOY+267%);至2027年交換器產值預估
可達到220億美元,2022-27CAGR+8%,
圖11:交換器速率營收組成&成長性預估
25,000 25.00%
1600G+ 800G 400G 200G 100G 50G 40G 25G 10G 1G YOY(右軸)
15,000 15.00%
10.83%
10,000 9.91% 10.00%
7.71%
5.78%
5,000 4.99% 5.00%
- 0.00%
2021 2022 2023F 2024F 2025F 2026F 2027F
【僅供內部教育訓練使用,嚴禁外流】 資料來源:Dell’Oro(202302)、福邦投顧 28
單位:百萬美元
交換機板:主流AI層數下滑,傳統乙太網多層為主
資料中心需要承載流量大+高速傳輸,在此需求下,高多層板成為此需求的解決方案,
其優點在於電子元件間連線縮短下,訊號傳輸速度提高,而且也方遍佈線。
乙太網交換機在400G的層數要求在24層以上,平均是Whitley/Milan伺服器的2倍,也較
100G增加36%;進入AI/ML領域,預期800G將成為主流,800G出貨單價較400G翻倍。
Mellanox採用六階HDI設計,有別於傳統多層板設計,有利高階HDI製程能力廠商。
根據板廠和材料廠的訪查,800G交換器預計2024H2進入小量,2025年放量,主要材料廠
商為台光電、斗山、Panasonic、台燿,全球市占率預估:台光電>60%、斗山15~20%、
Panasonic 10~15%、台燿5~10%。
表16:交換器供應鏈劃分
板層數劃分 產品 銅箔基板主要供應商 PCB主要供應商 出貨價格
400G 台光電 TTM、滬士電、
Cisco
800G 台光電 金像電、ISU
400G 台光電 TTM、滬士電、
Arista
800G 台燿、台光電 金像電、ISU
400G :300~400美金
400G:24~36L多層板 400G 台光電/Doosan/松下 金像電、ISU
Celestica 800G:1,000美金
800G:38~48L多層板 (NPO:28L) 800G 台光電/Doosan/松下 金像電、ISU
800G HDI:2,000美金
(NV 24L HDI) 400G 台光電 TTM、ISU、高技
(每平方公尺)
Edgecore TTM、ISU、高技、
800G 台光電/Doosan
金像電?
400G 台光電 TTM、滬士電
Mellanox
800G 台光電、Doosan? TTM、滬士電
【僅供內部教育訓練使用,嚴禁外流】 資料來源:產業調查,福邦投顧整理 29
交換機的材料升級不如預期順利
在交換機升級的過程中,由於高速傳輸需求,對於耗損也是嚴格規範,800G材
料價格則會較400G材料增加40%;若交換機採用飛線設計下,板材僅需要採用
400G等級材料,目前此設計主要由Nvidia體系採用。
表17:各速率材料概況
100G 400G、800G(飛線)800G、1.6T(飛線) 1.6T
Extreme
材料耗損等級 Very low loss (Super )Ultra low loss TBD
Ultra low loss
Df 0.005~0.006 ~0.003 ~0.002 TBD
頻率 13Ghz(NRZ) 13Ghz(PAM4) 28Ghz(PAM4) 56Ghz(PAM4)
PPO+LowK/
設計 PPO PPO+Low K Glass 碳氫樹脂+Q Glass
LowK2 Glass
平均單價/張 1,000~2,000 2,000~3,000 3,000~4,000 TBD
代表型號 松下M6 松下M7 松下M8 松下M9
ThunderClad ThunderClad
TU883 ThunderClad 5
3+/3/2SP/2A 4SN/4SR
IT 968/968G IT988G IT998GSE TBD
競爭同業
產品儲備 EM-528/626 EM-528K/EM-890K EM-892K/K2 EM-896K3
Synamic 6/6N Synamic 8GN Synamic 9GN TBD
DS7409DQN2/
DS7409DV(N) DS7409DJG(N) TBD
DS8502SQ
資料來源:各公司,福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 30
AI應用之始-AI NB/PC:雲端與本地的協作
AI PC: 雲端與本地端協同合作,利用雲端的大數據處理能力來完善本地端的PC使用情
境,依賴雲端算力來提升本地端的性能。
根據聯想的定義,AI PC 能夠建立本地資料庫,執行個人大模型,支持人工智慧計算,
運用自然交換的更強大、更具創造能力的智慧生產力工具,其中最重要的是能夠使用自身
的資料庫,在保護用戶隱私安全前提下,滿足用戶客製化需求。
表18:傳統 PC與AI PC的比較
傳統PC AI PC
硬體 依賴通用電腦硬體 整合專用AI硬體,例如CPU+NPU+GPU架構
軟體 主要使用通用的電腦軟體 透過人工智慧軟體集合300多項AI加速功能
具備更強的能耗表現和AI體驗,以實現更好的智慧
性能 效能普通,執行一般任務和娛樂
協作
效率 低,需要更多軟硬體配合 高,雲端協作
簡化操作介面
易用性 操作複雜
門檻低
應用領域 基礎辦公,資料處理等傳統功能 學習式,智慧分析預測,機器學習等
運用感測器,簡化交互,與用戶自然互動,例如語
交互體驗 仰賴鍵盤和滑鼠
音識別、免接觸等
成本 低 中 資料來源:聯想、群智諮詢、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 31
整合NPU的AIPC晶片持續推出,Arm架構產品轉趨積極
NPU整合於CPU的產品,首見於Apple M1~M2晶片,M2 Ultra的算力可達31.6 Tops,AMD的7系列產品,亦整合了
10Tops算力的NPU。
AMD:推出XDNA架構,可以離線網路和雲端在本地PC/NB執行AI工作,亦可在端~雲的混合場景運行;8系列NPU算力
達到16 Tops。
高通:透過採用混合AI架構,將雲端推理和邊緣PC運算結合,推出X Elite。(ARM架構)
Nvidia:與聯發科在NB/PC的模組化方案上,預期採用天磯系列的CPU,搭配Nvidia的GPU產品推出。(ARM架構)
表19:各家AI PC 用CPU整理
Intel AMD NVidia 高通 蘋果
產品 14th Core Ultra Ryzen 8系列 MTK 天磯9500?+NV GPU Snapdragon M3→M4
X Elite
架構 x86 x86 ARM ARM ARM
製程 Intel 4(7nm)+ TSMC TSMC 3nm TSMC 4 nm TSMC 3nm
TSMC6/5nm 4 nm/3 nm
總算力 34 TOPS 39 TOPS TBC 75 TOPS TBC
【僅供內部教育訓練使用,嚴禁外流】 資料來源:產業調查、福邦投顧整理 32
2024年大廠AI PC/NB產品陸續問世
2024年品牌客戶將陸續推出搭載NPU核心的產品,若需要滿足Microsoft
Copilot運行需求(算力需要40TOPS+),均要搭載獨立顯卡因應。
根據IDC(2024.1)預估,2024年含NPU功能的AI PC出貨量可望達到4,900萬台,
至2027年出貨量可達到1.67億台,CAGR+42.7%。
表20:近期品牌廠產品彙整 圖12:AI PC出貨量預估(百萬台)
ASUS Lenovo Dell HP 180 70.0%
發佈 2023.12.15 2023.12.15 2024 CES展 2023.12.14 出貨量 滲透率
時間 160
60.0%
58.7%
型號 Zenbook14 小新Pro 2024 XPS 16 OMEN 16
140
(UX3405MA)
50.0%
CPU Intel Core™ Intel Core™ Intel Core™ Intel Core™ 120 45.4%
Ultra 7 155H Ultra /Ryzen 7 Ultra Ultra 9
100 40.0%
GPU Intel Arc IGPU RTX系列 RTX 4070 RTX 4070 35.6%
155H 80 30.0%
RTX 40系列
記憶體 32GB DDR5 32GB DDR5 32~64GB 32GB DDR5 60
7467Mhz 7467Mhz DDR5 19.0% 20.0%
40
硬碟 1TB 1TB~5TB(擴充) 512GB~4TB 1TB
9.7% 10.6% 10.0%
20
電池容 75Whr 84Whr 99.5Whr 97Whr
量 0 0.0%
【僅供內部教育訓練使用,嚴禁外流】 33
售價 6K RMB 7,999 RMB 11-1萬NTD 8.4萬NTD 2022 2023F 2024F 2025F 2026F 2027F
2024年換機潮將現,為復甦的主要動能
福邦投顧認為,2024年PC/NB市場的復甦關鍵,在於Win10升級Win11,和AI對於規格的
要求提昇(AI Ready)所帶來的換機潮。
根據IDC 2023.8的調查指出,當前約24%大型企業用戶(樣本158家)、14%中小企業用戶
(樣本225家)已將作業系統升級至Win11,隨著Windows 10將於2025年10月停止更新下,
45%大型企業用戶和37%中小型企業用戶傾向於2024年完成升級至Windows 11。
根據IDC預估,2023年PC/NB出貨量達2.53億台,YoY-13.3%,2024年在換機潮和AI
PC/NB的帶動下,可望迎來復甦,預估出貨量可達2.65億台,YoY+4.8%。
圖13:全球PC/NB出貨量預估 出貨量(左軸) 年成長率(右軸)
400,000,000 20%
17.4% 16.7%
350,000,000 15.3% 15.1% 15%
13.7% 13.6%
12.1%
11.0% 10.8%
300,000,000 10%
-13.3%
50,000,000 -15%
-16.6%
- -20%
【僅供內部教育訓練使用,嚴禁外流】 34
PC/NB 相關PCB供應要求-材料升級
載板:CPU換代時,出貨比重最高的NB(70-80%)載板變化不大;出貨量的提升,才有利載板供應商稼
動率表現,預期會以日本Ibiden(Intel)和AT&S(AMD)為主要供應商,而非市場認知的台廠同步受惠。
硬板:CCL仍以Standard loss為主,部分會有往Mid Loss升級;AI相關應用優先於商務型機種採用
下,有利出貨商務電腦的主機板PCB廠商,此類製程要求以HDI為主。
表21:PC/NB PCB供應要求
Intel AMD
產品 Core™ Ultra Ryzen 8000 series
PCIE 5.0 4.0
載板要求(VS.前代) DT:Intel(耗用面積+29%/10L),AMD面積維持不變(12L)
NB:面積層數維持不變(10L)
ABF供應商 • Intel: Ibiden(優先供應商/優先滿足)、Shinko、欣興(日
商供應不及的備案)、AT&S、Semco
• AMD: AT&S(優先供應商)、南電、欣興
CCL等級要求 Standard-Loss→Mid-Loss
供應商 聯茂、南亞、台光電
主機板製程要求 6層~一~四階HDI(往商務款越高階)
供應商 金像電、健鼎、華通、瀚宇博德等
資料來源:產業訪查、各公司、Prismark、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 35
AI最全面的應用-自動駕駛
Tesla AI Day公布其軟體架構,採用BEV(鳥瞰圖)+Transformer+時間序列模型
和自動標示算法+向量地圖,來提升特斯拉的智慧駕駛軟體能力。
Tesla FSD Beta→Supervised,性能隨著版本升級下,軟體性能顯著提升。
【僅供內部教育訓練使用,嚴禁外流】 36
因應自動駕駛需求,特斯拉硬體持續升級
2023年4月,特斯拉發布新一代HW4.0自動駕駛域控制器,採用特斯拉自行研發
的FSD 2.0晶片,算力預期將是HW3.0 2~3倍。
表23:特斯拉HW1.0~4.0規格整理
HW1.0 HW2.0 HW 2.5 HW3.0 HW4.0
上市時間 2014.9~2016.10 2016.10~2017.8 2017.8~2019.4 2019.4~2023.3 2023H2
攝像頭(顆) 2 8 8 8 11+1(備用)
前向毫米波雷達 前向毫米波雷 前向毫米波雷達 前向毫米波雷達 4D毫米波雷達
毫米波雷達(顆)
(Bosch) 達(Bosch) (Continental) (Continental) (鳳凰/Arbe?)
Nvidia Parker Nvidia Parker
Mobileye EyeQ3 Tesla FSD 1.0 *2 Tesla FSD 2.0*2
SoC SoC*2
處理器
Nvidia Pascal
Nvidia Pascal GPU 神經網路加速器NPU*2 第二代自研NPU*2
GPU
Infineon TriCore Infineon TriCore
MCU MCU
FPS 36 110 110 2300 TBC
TOPS 0.256 12 12 144 300~500
記憶體 6GB 8GB
16GB,8xLPDDR4 32GB,16xGDDR6
娛樂系統板、自動駕駛板 CPU 和GPU 整合於
設計
獨立兩塊板子 一張PCB上
高速公路NOA、壅塞、複雜的道路都市和高速公路NOA、有交通號誌的複雜路段、
應用 高速公路和行車
環境 停車標誌等
主動巡航控制/輔
基本功能 助轉向/自動變換 車庫召喚/車道維持/自動調整車速 自動辨識紅綠燈、路標等複雜路段並自動控制
【僅供內部教育訓練使用,嚴禁外流】 37
車道/自動停車
自動駕駛所需的算力要求
當前主流搭載L2/L2+等級的算力要求達到200Tops,往L3前進下,算力要求更加提高。
表24:自動駕駛等級L2~L5算力需求
自動駕 名稱 算力要求 應用範圍 應用晶片
駛級別 (TOPS)
L2 組合駕駛輔助 10 ACC、LCC、AEB、APA Mobileye EQ4
Nvidia Drive PX1/2
L2+ 200 ALC、 Nvidia Drive Orin
NOA(自動輔助導航駕駛) Mobileye EQ6
Tesla FSD 1.0
L3 有條件 500 車輛特定情況有條件自動 Tesla FSD 2.0
自動駕駛 化,駕駛根據情況回應 昇騰610
L4 高度自動駕駛 2000 車輛特定情況自動化, 高通 Ride Flex
駕駛解放雙手 Nvidia Thor
L5 完全自動駕駛 / 無人駕駛 /
資料來源:CSDN、NVidia、高通、Mobileye、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 38
電子電氣-E/E架構升级方式
Bosch汽車電子電氣架構分成三大階段,每個大階段分為兩個小階段
• 分散式架構:模組化(ECU對應單一功能)、整合化(ECU整合多功能),傳統車廠處在此階段。
• 跨域集中式架構:域內集中(域控制器對應單一域)、跨域融合(跨域控制器同時控制多個域),例
如:特斯拉等新創車廠位在此階段。
• 車輛集中式電子電氣架構: 車輛融合(一個車載中央電腦控制全車域控制器)、車輛雲端計算(更
多車輛附加功能由雲端來執行),此為終極目標(並朝向往人形機器人發展)。
圖15:E/E電子電氣架構圖
資料來源:Bosch、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 39
域控制器技術要求
域:指控制汽車的功能模組電子電氣架構的集合,每一個域由一個域控制器進行統一控
制,域控制器的出現,能解決分散式ECU協作性差的缺點,以下為Bosch定義的五個控制
域,其中以自動駕駛域技術含量最高。
表25:五大域控制域规格
控制器 晶片性能要求 計算能力 操作系統 應用方向
類型
動力域 32bit MCU 要求較低 符合CP 控制轉向/驅動等底盤
AutoSAR標準 執行單位
底盤域 32bit MCU 要求較低 控制驅動/制動/轉向等
底盤操作功能
車身域 32bit MCU 要求較低 在原有BCM上整合更多
功能
座艙域 高性能 40~200K DMIPS Linux客製化系 單一晶片多螢幕等智慧
SOC 晶片 統 駕駛艙功能
自動駕駛域 高性能AI晶片 20~1000TOPS QNX或Linux 自動駕駛感測、判斷
即時操作系統
資料來源:Bosch 、蓋世汽車、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 40
自動駕駛控制域是汽車智慧化的重要關鍵
自動駕駛控制域是L3等級以上的關鍵:自動駕駛控制域是E/E架構中最重要的關鍵;高
等級的自動駕駛,需要處理Camera、Radar、Lidar等各種感測資訊,並在短時間完成計算
和制定決策,這類處理過程均需要透過自動駕駛控制域處理。
表26:域控制域構成 圖16:自動駕駛域控制器架構
組成 功能
硬體 計算晶片 處理圖片、進行深度學習、輸出識
別結果/感測器融合/軌跡預測
Safety MCU 處理安全要求較高的資料運算
記憶體 儲存資料
散熱 氣冷/水冷散熱,提高域控制器效率
密封金屬外殼 保護
PCB 內部元件承載
插槽 外接攝像頭、雷達、光達等
軟體 底層操作系統 基礎汽車操作等
上層應用軟體 執行汽車智慧化功能
【僅供內部教育訓練使用,嚴禁外流】 41
L2+等級汽車快速發展,域控制器同步受惠
IDC(2022.8)預估2022-2026年,L1~L4等級汽車出貨量將以CAGR+14.8%的成長率,從
2021年的4,400萬台(L2+~L4 3%)成長至8,900萬台(L2+~L4 24%)。
麥肯錫(2023.1)報告指出,2020年時域控制器的產值達920億美金,預估至2025年可達
1,290億美金、2030年可達1,560億美金,2020-30CAGR+5%,其中自動駕駛域隨著L3以上的
發展下(2025/2030 10%/21%),成長最為顯著。
圖17:全球自動駕駛汽車出貨量預期 圖18:2025~2030域控制器市場
SAE Level 1 SAE Level 2 (單位:十億美金)
100,000.00 20
SAE Level 2+ SAE Level 3 180
90,000.00 18
SAE Level 4 整體成長率(%)-右軸 160
80,000.00 16
70,000.00 14 140
45
120 動力域
60,000.00 12
39 車身域
50,000.00 10 100 30 主動安全
40,000.00 8 80 27 29 娛樂域
26
30,000.00 6 60 底盤域
23 11
26 自動駕駛域
20,000.00 4 40
19 13
10,000.00 2 20 14 34
0.00 0 13
2021 2022F 2023F 2024F 2025F 2026F 0 0
2020 2025(F) 2030(F)
【僅供內部教育訓練使用,嚴禁外流】 42
自動駕駛下對PCB的要求
表27:傳統汽車與具備自動駕駛功能汽車PCB比較
傳統汽車 具備L2級別自動駕駛功能汽車
架構 分散式架構 域控制架構
晶片 ECU SOC+MCU
車規認證時間 系統級認證0.5~1年→產品認證(車廠ABC)
樣品板至車廠整車上市約2-3年
產品保證 10年+
CCL 要求 Standard loss MidLoss、雷達板(碳氫)、光達板(鐵氟龍)
供應商 聯茂、台光電、南亞、生益、Rogers等
PCB製程要求 傳統板2-6L 從傳統多層~4階HDI製程能力
毛利率 10~20% 20%~30%,越高階製程有機會到40%+
供應商 Meiko、CMK、 自動駕駛控制域-四階HDI(健鼎、定穎、TTM)
敬鵬、AT&S等 智慧座艙域-二階HDI+(健鼎、定穎、勝宏)
雷達-多層板(滬電、定穎、燿華、臻鼎)
資料來源:產業訪查,福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 43
重點PCB、CCL公司產品比重與客戶
股票代號 股票名稱 產品組合 客戶 資料來源:各公司,福邦投顧整理
2368 金像電 伺服器60% AI伺服器PCB供應能力:CPU主板、SwitchBoard、非Nvidia體系OAM加速
交換器20~25% 卡、UBB
高階產能在台灣、蘇州 伺服器:微軟、Google、Amazon、Meta、Supermicro、Dell、HP、Intel、
AI: 20% AMD;交換器:Arista、Cisco、Celestica
8155 博智 伺服器50~70% AI伺服器PCB供應能力:CPU主板、UBB
主要產能台灣 伺服器:Supermicro、Dell
5349 高技 網通40%、伺服器目標10% 伺服器(AI):Intel-Gaudi、Amazon-Tranium(副板)
主要產能台灣 交換器/Smart NIC :智邦(台灣廠)
3044 健鼎 伺服器20% AI伺服器PCB供應能力:CPU主板、SwitchBoard
主要產能中國無錫 伺服器:Dell、微軟、Amazon、Meta
3715 定穎 伺服器~4%,目標5~10% AI伺服器PCB供應能力:OAM
主要產能中國黃石 OAM:Broadcom、Cisco
3037 欣興 ABF 20%+(16L以上) Nvidia、AMD硬板供應;ASIC 載板供應商
HDI 19% 伺服器:Nvidia (OAM、NVL SwitchBoard)
AI:10~20% 晶片:Intel、AMD、Nvidia(L40S、NVSwitch)、Broadcom等
主要產能台灣、中國
8358 金居 RG系列>40% 伺服器新平台銅箔主供、LEO板材銅箔主供、斗山M8銅箔供應
2383 台光電 基礎設施55-60% GPU/ASIC客戶:Nvidia、AMD、Intel
AI:28% 伺服器:微軟、Amazon、Meta、Dell、HP
交換器:Cisco、Arista、Mellanox、Celestica、Edgecore等
6213 聯茂 基礎設施58% GPU客戶:NVidia
伺服器:微軟、Amazon、Meta、Dell、HP、Supermicro
6274 台燿 高速材料45% 伺服器:微軟、Amazon、Meta、Supermicro、Dell、HP、ZT、技嘉
交換器:Arista
【僅供內部教育訓練使用,嚴禁外流】 44
重點PCB、CCL公司獲利預估
股票 股票
股本(百萬) 總市值(億) 23EPS 24EPS(F) 25EPS(F) 24PE 25PE
代號 名稱
2368 金像電 4,918 937 7.2 11.7 15.9 16 12
3037 欣興 15,251 2,799 7.8 6.9 12.4 27 15
3044 健鼎 5,256 1,156 11.5 16.5 18.7 13 12
3715 定穎 2,776 172 3.6 5.7 7.2 11 9
5439 高技 930 88 5.1 6.8 9.1 14 10
8155 博智 512 76 4.0 7.9 10.3 19 14
8358 金居 2,526 164 2.1 4.1 5.1 16 13
2383 台光電 3,439 1,406 16.2 26.6 27 15 15
6213 聯茂 3,630 381 1.9 5.6 10.2 19 10
6274 台燿 2,710 469 3.1 10.2 12.3 17 14
資料來源:福邦投顧整理預估(2024.05.14)
【僅供內部教育訓練使用,嚴禁外流】 45
謝謝指教
Q&A
【揭露事項與免責聲明】
本報告僅提供相關部門的內部教育訓練及相關人員之參考資料,並非針對特定客戶所作的投資建議,且在
本報告撰寫過程中,並未考量讀者個別的財務狀況與需求,故本報告所提供的資訊無法適用於所有讀者。
本報告係根據本公司所取得的資訊加以彙集及研究分析,本公司並不保證各項資訊之完整性及正確性。本
報告中所提出之意見係為本報告出版當時的意見,邇後相關資訊或意見若有變更,本公司將不會另行通知
。本公司亦無義務持續更新本報告之內容或追蹤研究本報告所涵蓋之主題。本報告中提及的標的價格、價
值及收益隨時可能因各種本公司無法控制之政治、經濟、市場等因素而產生變化。本報告中之各項預測,
均係基於對目前所得資訊作合理假設下所完成,所以並不必然實現。本報告不得視為買賣有價證券或其他
金融商品的要約或要約之引誘。
可能個別基於特定目的且針對特定人士出具研究報告、提供口頭或書面的市場看法或投資建議(下稱“提
供資訊”),鑑於提供資訊之單位、時間、對象及目的不同,本報告與本集團其他單位所提供資訊可能有
不一致或相牴觸之情事;本集團各單位對於本報告所涵蓋之標的可能有投資或其他業務往來關係,各單位
從事交易之方向亦可能與本報告不一致,讀者應審慎評估自身投資風險,自行決定投資方針,不應以前述
不一致或相抵觸為由,主張本公司或本集團其他成員有侵害讀者權益之情事。
附錄
【僅供內部教育訓練使用,嚴禁外流】 48