Download as pdf or txt
Download as pdf or txt
You are on page 1of 48

PCB產業下半年展望

-成也AI,敗也AI

福邦投顧 研究部
2024.05
結論:AI重塑PCB+CCL的供應格局
1. 硬板-高階板供應稀缺,GB200 PCB產值增加明顯
• AI伺服器、交換機:主流客戶大量於基礎設施採用HDI製程產品,有利具備高
階製程、生產大面積經驗廠商,例如欣興(3037)-NVidia主要PCB供應商。
• PCB仰賴HDI製程提升出貨單價:福邦預估從H100升級至B100/B200、GB200時,
每GPU產值提升20%/60%+;交換機PCB每單位報價是傳統多層板的一倍。
• AI終端需要HDI製程: AIPC、自動駕駛PCB均需要大量使用HDI製程,廣泛見到
二壓以上製程產品,有利金像電(NB)、健鼎/定穎(自動駕駛)的發展。
2. CCL-設計變動下,產值下滑顯著
• AI伺服器產值下滑:福邦預估從H100升級至B100/B200、GB200時,每GPU產值
增加7%/下滑70%+。
• 800G材料升級之路仍需觀察:主流800G的設計架構,Infiniband架構設計可望
採用M7等級材料,不需升級至M8等級;尚未放量的乙太網交換機,維持M8材
料等級。
• GB200新架構下,聯茂為最大受惠者(配板材料供應商),台光電僅剩下NVL模
組板和交換機生意機會,台燿亦獲得配電板生意。
【僅供內部教育訓練使用,嚴禁外流】 2
結論:AI重塑PCB+CCL的供應格局
3.建議關注個股:
• 8358金居:銅箔基板廠上游銅箔主要供應商(ex:聯茂),受惠漲價、一般伺服
器回溫、GB200供應商,已切入斗山供應體系。
• 6213聯茂:GB200最大受惠者,與Nvidia關係好,已經啟動漲價,一般伺服器
需求回溫。
• 3037欣興:Nvidia首選PCB供應商,24H2將進入CPU載板供應,2025年有望進入
GPU載板供應。
• 2368金像電:產能滿載,四大雲廠商、美超微、Dell/HP主要供英商,2024年
AI相關營收成長100%。
4. 建議關注題材:AI伺服器、NB/PC換機、自動駕駛、人形機器人
5. 風險提示:GB200量產時程不如預期

【僅供內部教育訓練使用,嚴禁外流】 3
目錄

一 雲端巨頭資本支出與伺服器出貨預估 5

二 一般伺服器與AI伺服器成本估算 10

三 伺服器新平台帶動PCB&CCL單價提升 12

四 AI 伺服器PCB&CCL供應關係 18

五 Nvidia H100升級至B100的供應鏈預測 20

六 800G需求帶動PCB製程升級 25
七 AI PC 與換機潮對PCB、CCL要求升級 31

八 自動駕駛帶動PCB、CCL的升級 29
36

九 相關個股介紹 44

【僅供內部教育訓練使用,嚴禁外流】 4
雲端中心三巨頭資本資出持續上修
根據彭博最新共識數字,扣除Amazon,三大CSP廠的2024年YoY+44%
(24Q1預估為+25%),2024年雲端廠商上修資本支出。(2024Q2更新)

資料來源:彭博、福邦投顧
單位:百萬美元

【僅供內部教育訓練使用,嚴禁外流】 5
全球伺服器出貨2024年小幅成長
短期:受到AI伺服器排擠效應影響,參考Digitimes最新數據預估,2023年伺服
器出貨量YoY-20.4%;2024年可望恢復增長,但仍有AI伺服器排擠效應,
YoY+4~7%。
中長期:根據IDC資料預估,伺服器出貨量成長率下修至2022-27CAGR+2%。
圖2:全球伺服器出貨量成長預測
2017 2018 2019 2020 2021 2022 1Q23 2Q23 3Q23 4Q23 2023 1Q24(F) 2Q24(F) 2024(F) 2025(F) 2026(F) 2027(F)
Gartner 出貨量 12,918 13,815 11,821 12,647 13,644 14,730 15,784
2024.3 YoY 6.9% -14.4% 7.0% 7.9% 8.0% 7.2%
QoQ
Digitimes 出貨量 13,910 15,238 15,060 16,255 17,008 18,122 3,788 3,532 3,520 3,592 14,432 3,534 3,601 15,354 19,122 20,270 21,547
2024.04 YoY 9.5% -1.2% 7.9% 4.6% 6.5% -14.0% -22.4% -25.9% -18.6% -20.4% -6.7% 2.0% 6.4% 24.5% 6.0% 6.3%
QoQ -14.2% -6.8% -0.3% 2.0% -1.6% 1.9%
IDC 出貨量 10,241 11,849 11,800 12,668 13,546 14,960 3,018 3,084 3,066 3,128 12,297 12,874 14,239 15,399 16,486
預估 14,945 3,002 3,477 4,005 3,425 13,533 2,975 3,112 12,874 14,239 15,399 16,486
2024.3 YoY 15.7% -0.4% 7.4% 6.9% 10.4% -10.0% -19.9% -22.8% -17.4% -17.8% -1.4% 0.9% 4.7% 10.6% 8.1% 7.1%
QoQ -20.3% 2.2% -0.6% 2.0% -13.1% 4.6%
1.單位:千台
2. Digitimes預估數為板卡,IDC等預估為機箱

資料來源:福邦投顧整理(April.2024)

【僅供內部教育訓練使用,嚴禁外流】 6
雲巨頭大模型持續升級,有利上游拉貨
四大CSP對AI的關注程度持續上升,AI為2024-25年各家必投項目,對於2024-25年高階伺服器、光
通訊的升級有顯著幫助。
表1:國際四大CSP資本支出和大模型近況
公司 內容 資料來源:各公司(2024Q2),福邦投顧整理

微軟 • 公司發表3.8B的Phi-3 Mini小模型,測試數據優於Meta Liama3 8B的模型,適用於手機;後續也會推出7B


的Small和14B的Midium版本。
• Azure:財富前500大公司中,有65%(24Q1 50%)比重是客戶;Azure AI處於供不應求
• Github Copilot用戶持續上升:有180萬個付費用戶(24Q1>130萬個),前100大企業90%使用Github。
• 365 Copilot:財富前500大中有60%的企業使用,
• 資本支出:2025財年的資本支出將高於2024財年,以保障Azure的算力供應。
Google • 組織優化:公司整合平台和設備團隊,例如將模型建構團隊整合至Google Deepmind,統一機器學習基礎設
施和開發團隊,以求實現更快的決策與提昇客戶體驗。
• 廣告轉化提昇:整合Gemini至PerformanceMax,使用這類生成的廣告可獲得更好的推廣效益,每個轉換成
本下,可增加5%的轉化效益。
• 搜尋效益提昇:整合AI、助理進入搜尋引擎,提高搜尋引強在關鍵字上的商業效率。
• 推出Gemini1.5(Pro算力可達1.0 Ultra),可達到百萬等級上下文長度,意味具備寫出更高品質的論文或研究
報告潛力。
• 公司24Q1資本支出120億美元,預計全年每一季資本支出將不低於24Q1的水平。
Meta • 生成式AI:應用程式中的推薦內容比例提昇,影片內容目前佔了用戶時間的60%,目前公司正在推進
Reels+長影片+直播影片結合,有利更多影片推薦;透過Meta Lattice為廣告主提供更多的自動化投放。
• 2024年推出Liama3,擴大Meta AI 助手實用性,推動AI工作室Roadmap。
• 2024年全年資本支出350~400億美元,較上季展望上修,主要用於資料中心加快建設腳步,預計2024年底
將擁有35萬H100,以及其他GPU約當60萬張H100算力。
Amazon •
基礎設施:Tranium2將於24H2~25Q1推出,較預期延後;公司的營運性能、安全性和晶片都是Nvidia提供。

Amazon Bedrock :提供客戶廣泛的LLM選擇和模型評估,近期增加Anthropics Cloud3、Liama3、Mistral等
模型,Bedrock導入自定義模型,客戶能使用SageMaker來建構所需的模型。
• Amazon Q:軟體開發助理,協助生成代碼、調整代碼衝突等,透過Q能搜尋企業資料庫,總結分析,並與
【僅供內部教育訓練使用,嚴禁外流】
客戶基於這些資料進行對話。 7
雲巨頭積極將AI導入終端應用
表2:國際四大CSP針對終端裝置導入AI彙整 資料來源:各公司,福邦投顧整理

公司 內容
微軟 1. GPT-4o:多模態架構,能夠在同一個神經網路聽說讀寫,文字、聲音、圖片直接互動產生,增加聲音互動
和攝像頭辨識(先前各自獨立一個神經網路),提供即時翻譯等功能
2. Sora 文生影音封閉模型,通用人工智慧AGI實現的可能性:
• 透過1920*1080的解析度訓練,推論產出約1分鐘的連貫式影音,優於當前現有的競爭模型(3~4秒、人工剪
輯)。
• Sora模型能保證3D空間和比例的穩定,優於其他AI模型。
• 遵循Scaling Law,算力需求將持續增加,訓練算力估是Stable Diffusion v1-5的100倍以上:
 一般動態影片需要30fps,一分鐘需要產出1800張圖,推升算力需求,算力提升越高,影片解析度越高。
 影片場景的穩定、人物表情、配件、服裝,每增加一個維度,都需要重新產出圖片,都需要耗用算力。
3. Surface Pro 10&Laptop 6: 預計搭載Core Ultra和高通Snapdragon X Elite,也發表AI Explorer功能,使用者可
透過此功能在任何程式上搜尋文件、圖片和聊天。
Google 1. AI助理:Astra專案可辨識物體、顏色、地理位置,亦具有取名功能。
2. VEO:影音生產模型,能建立一分鐘1080P影片,可以理解航空鏡頭和延時攝影等專有名詞。
3. Imagen3:最高品質的文生圖模型,更精細的圖片細節,文字效果更佳。
4. Google搜尋:推出AI Review,用戶可以通過在搜尋結果的頂部,獲取由 AI 大模型產生的摘要
5. Google Photos:推出新功能Ask Photos,可以一鍵從圖庫中幫你找到想要的照片和視頻。
6. Google Workspace:提供的一套生產力和協作工具中,包括信箱、Docs、Calendar等。
7. NotebookLM:可基於原始檔案產生個性化和互動式音訊對話。
8. Gemini App:可直接對話,並隨時中斷對話。

Amazon • AI導入智慧語音助理Alexa:Alexa AI 能夠記下個人喜好,亦能執行傳送訊息和更新訊息等任務;大模型技


術可以感知上下文、識別情緒和語氣,並在回覆中呈現,Alexa AI擁有先進的語音辨識,可增強對化體驗。
Meta • 消費者人工智能聊天機器人:將推出Meta AI 聊天助理,並將在WhatsApp、Instagram、Messenger等平台推
出一系列的AI角色。
• 推出Quest 3: 除遊戲、體育賽事直播、辦公外,Meta AI 也將導入。
• 推出Ray-Ban Meta智慧眼鏡: 支援Meta AI,可使用”Hey Meta”語音指令更深入發揮創造力和控制功能。
【僅供內部教育訓練使用,嚴禁外流】 8
AI伺服器出貨量成長將優於整體
根據福邦投顧預估,2022年配備GPU的AI伺服器約53.7萬台,隨著AIGC的發展,AI伺服器的出貨量
CAGR預估為66%,2023~2025年預估出貨量70(訓練15)/125(訓練42)/212(訓練70)萬台。(以NVIDIA產
品為計算基準,2025年GB200可做為訓練和推論,訓練推論界線模糊,採用57%GB200和43%B100做估
計),GB200相關產品預計於25Q1~Q2進入量產。
圖3:2022-2025年AI伺服器(GPU)出貨量成長預測 圖4:AI伺服器出貨客戶比重

AI伺服器出貨量預估(GPU系列訓練+推理)
2,500 100.00%

GPU系列伺服器 YOY
78% 80.00%
2,000 70%

60.00%

1,500
單位:千台

40.00%
30%

19% 20.00%
1,000 14%

0.00%

500
-20.00%
-23%

- -40.00%
2019 2020 2021 2022 2023(E) 2024(F) 2025(F)

資料來源:Trendforce,IDC,產業調研,福邦投顧預估

【僅供內部教育訓練使用,嚴禁外流】 9
伺服器BOM表估算-PCB佔比不高,價值成長驚人
伺服器分成一般型、訓練型、推理型,AI訓練型和推理型由於高性能計算等需求,規格均會較一般型提
升,一般型伺服器單價約在3,000~15,000美金、AI用伺服器約200,000~3,000,000美金。
(估算假設:一般型9,500美金、訓練型250,000美金、推理型60,000美金、訓練+推理混合150~300萬美金)

AI相較於一般型,新增GPU,舊有的規格升級部分,來自於儲存裝置(用量提升)、散熱(氣冷轉水冷)、電
源(能耗提升)、PCB(耗損、散熱要求提升),GB200架構下採用4+9+5/8+9+10的設計,對PCB有更多的需求,
估約較訓練型成長1~2倍(同樣配置下)。

表3:AI伺服器BOM表預估
訓練型 成本 訓練型/一般型 成本 訓練+推理整合 成本 較訓練型
類型 一般型 成本佔比 推理型
7-8U 佔比 產值增幅(%) 佔比 2U RACK 佔比 增加(%)
x86 CPU * 2 21%x86 CPU*2 2.1% x86 CPU*2 13.9%Grace*18
計算 77%
GPU 0%H100*8 74.0% L4/L40/L40S*4 38.8%B100*36
3200Mhz*12 19%3200Mhz*24 1.5% 100% 3200Mhz*24 10.0%9TB LPDDR5 0.2%
記憶體
HBM 0%HBM*8 7.6% HBM 0%HBM 192G *18 7.2%
儲存
SSD 41%SSD 4.2% 150% SSD 27.7%SSD 1.2%
空間
晶片互連 PCIE*11 3%Nvlink+Nvswitch 8.4% 233% PCIE 0.8%NVSWITCH 0.8%
網卡 10G網卡 1%10G網卡 0.1% 10G網卡 0.7%DPU+CX網卡 4.1%
OAM+GPU
UBB+OAM+ Tray+
PCB CPU主板 5% 0.8% 300% CPU主板 2.9% 1.4% 148%
交換板+CPU主板 NVLINK
SWITCH
電源 800~1200W 5%2800~3000W 0.8% 300% 1000~2000W 3.3%5,500W 1.0%
散熱 風冷 0%風冷 0.3% 1,279% 風冷 0.2%水冷 2.9%
機殼、
其他 機殼、連接器等 4%機殼、連接器等 0.2% 機殼、連接器等 1.7% 4.4%
連接器等
合計 100% 100% 100% 100%
資料來源:福邦投顧整理預估

【僅供內部教育訓練使用,嚴禁外流】 10
伺服器中需要運用PCB的部份
伺服器主要PCB類型分為主板、背板、交換板、電源板、網卡板,以及交換器
段的主板、背板。
表4:伺服器PCB分佈
圖5:伺服器結構 序號 名稱 PCB種類
3 主板+OCP 主板PCB
模組 光通訊模組用PCB
記憶體模組PCB+
記憶體BT載板
4 PSU(副板) 電源背板
6 風扇板(副板) 風扇控制板
7 互聯中板(副板) 背板
9 Switch板+Riser+硬 交換板、ASIC用
碟模組(副板) 載板、硬碟背板、
Nand BT載板、
Raid 卡板、Riser
卡板
10 NVIDIA HGX GPU載板、
GPU模組(主板) NVSwitch、
GPU加速卡、
資料來源:浪潮英信伺服器技術手冊,福邦投顧整理 GPU UBB

【僅供內部教育訓練使用,嚴禁外流】 11
伺服器新平台換代帶動單價躍升-PCB
層數逐代提升,對於PCB製造工藝的要求也在增加,層數提升,對良率的控制難
度提高,除了傳統高多層的設計方案,亦有導入HDI的製程;若是有運用到背鑽
製程,產值多增加10~15%。
表5:伺服器平台與PCB層數演進
推出時間 2018 2020 2022 2024 2026
PCIe Gen 3.0 4.0 5.0 5.0(II) 6.0

傳輸速率 8GT/s 16GT/s 32GT/s 32 GT/s 64 GT/s

記憶體規格 DDR4 DDR4 DDR5 DDR5 DDR5~6?


PCB板層數 8~12L 12~16L 16~20L 18~22L 20~24L
ASP(TWD/平呎) 200~900 1,500~2,000 2,000~2,200 2,200~3,300 3,300+
Intel 平台 Purley Whitley Eagle Stream Birch Stream OAK Stream
CPU型號 SkyLake; Cooper / Sapphire Rapids; Sierra Forest ; CleanWater Forest;
CasadeLake Ice Lake Emerald Rapids Granite Rapids Diamond Rapids
AMD平台 Zen Zen2;Zen3 Zen4 Zen5 Zen6
CPU型號 Naples Rome; Genoa Turin Venice
Milan
資料來源:產業調研、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 12
伺服器新平台換代帶動單價躍升-CCL
CCL 在傳輸速率隨著換代翻倍下,要求有更低的Dk(介電常數)、更低的Df(介質
耗損)、更低粗糙度(Ra),技術難度更高,使得價值提升。
表6:伺服器平台與CCL等級演進
推出時間 2018 2020 2022 2024 2026
CCL材料等級 Mid Loss Mid Loss~ Very /Ultra Very /Ultra Super Ultra
Low Loss Low Loss Low Loss low loss
CCL 代表 M2以上 M4以上 M6以上 M6以上 M7以上
ASP(TWD/張) 800 1,200 2,000 1,000~2,000 2,000~3,000
PCIe Gen 3.0 4.0 5.0 5.0 6.0
傳輸速率 8GT/s 16GT/s 32GT/s 32GT/s 64 GT/s
記憶體規格 DDR4 DDR4 DDR5 DDR5 DDR5
Intel 平台 Purley Whitley Eagle Stream Birch Stream Oak Stream
CPU型號 SkyLake; Cooper / Sapphire/ Sierra Forest ; CleanWater Forest;
CasadeLake Ice Lake Emerald Rapids Granite Rapids Diamond Rapids
AMD平台 Zen Zen2;Zen3 Zen4 Zen5 Zen6
CPU型號 Naples Rome;Milan Genoa Turin Venice
資料來源:產業調研、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 13
AI伺服器用PCB產值為一般型的3~4倍
參考雲端大廠對於AI伺服器的設計,最高階的層數來到交換器等級。
CCL材料採用領先廠商台光電/斗山(Nvidia),其餘競爭同業一同競爭客製化產品;供應
AI伺服器板的廠商相對較少,屬於寡占市場,擁有優異的HDI製程能力者,可望獲得更多
的訂單,多層板PCB供應商為金像電、健鼎、博智、WUS、TTM、韓國ISU、勝宏、景旺、臻
鼎(先豐)、欣興;高階HDI供應商欣興、勝宏、金像電、健鼎、定穎、華通。
PCB單價來看,會較一般的方案(Whitley平台16L)增加75~150%(若有通孔、盲埋孔等會
更高) 。
表7:AI伺服器UBB設計方案
低階 中階 高階
PCB層數 20L 24L 28L
CCL材料 M6+ M7+ M8
FR4 FR4
(High TG、Low CTE) (High TG、Low CTE)
混壓 混壓
PCB ASP(TWD/平呎) 3,500+ 4,000+ 5,000+
資料來源:產業調研、福邦投顧整理預估

【僅供內部教育訓練使用,嚴禁外流】 14
AI 伺服器PCB組成BOM分析
拆解Nvidia DGX A100,AI伺服器PCB涉及GPU Board Tray、CPU Mother Board Tray、
其他,整體產值估計1,697美元,產值配比來看,GPU 79%、CPU 19%、其他2%
一般型伺服器產值約300~400美金,若採用AI訓練型(A100)的配置,將會多出一張GPU板
產值,整體產值會較一般型增加3~4倍(PCB+載板)。
圖6:NVidia PCB產值組成和剖面圖 資料來源:NVidia、福邦投顧整理
DGX A100 的PCB產值組成

2%

19%

79%

GPU板組 CPU板組 其他

【僅供內部教育訓練使用,嚴禁外流】 15
開放式加速型基礎設施-HIB
 雲端廠商取得Nvidia H100 SXM模組,交由ODM廠商處理L10部分,為了讓GPU和CPU、網
卡等以PCIE協定的方式進行溝通,會有一張專門用於PCIE協定的溝通板—Host
Interface Board(HIB),為當前為市場所知的Switch Board。
 NVIDA A100架構為4顆PCIE Switch對應8顆A100 GPU;升級至H100,設計架構為8顆
PCIE Switch對應8顆 H100 GPU(1 PCIE :1 OAM設計架構)。
 根據訪查,HIB板的設計架構同UBB等級,採用M7等級CCL材料,層數設計20~30層,有
利出貨廠商毛利率。
圖7:HIB範例 圖8:ODM廠設計的OAI架構

【僅供內部教育訓練使用,嚴禁外流】 資料來源:OCP,福邦投顧整理 16
開放式加速器基礎設施PCB彙整
表8:AI 伺服器PCB 比較
OAI-OAM OAI-UBB OAI-HIB MotherBoard
層數 20~30L 20~30L 20~30L 16~20L
(NV:16~20L)
CCL M6~M7 M7以上 M7以上 M6
材料等級
製程 四階HDI以上 多層板~ 多層板 多層板
工藝 一壓HDI
功能 乘載GPU 或ASIC 乘載8顆 與UBB、BMC和 PCIE 搭載CPU、記憶體等元
的模組板 加速卡模組和 Switch、PCIE擴充槽做共 件
連結網路拓樸 面連接(連結GPU、CPU、
DPU等)
資料來源:福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 17
AI伺服器的PCB供應鏈關係-A/H100&ASIC
 GPU (ASIC)Board:
(1) NVidia方案-HGX基板:Nvidia設計,欣興製造OAM後,交工業富聯打件;TTM、滬士電子製造UBB,交緯創、工
業富聯打件,最後Nvidia供應給所需的ODM廠(客戶代工廠)。

(2) ODM方案(專案):
• GPU加速卡掌握在Nvidia, ODM參考Nvidia的設計,設計UBB(ex:MGX、Oberon);雲廠商(ex:Google)可採購單
張H100加速卡,進行客製化UBB設計(韓系、台系板廠)。

• CSP廠商採用ASIC的設計(ex:TPU),亦需要使用到OAM、UBB,ODM廠會找尋適合的板廠配合。
表9:AI伺服器PCB供應鏈關係 資料來源:產業調查、福邦投顧整理
項目 CCL供應商 PCB供應商 載板主要供應商 板卡供 設計方案掌握者
應商
HGX-GPU 台光電(H系列) UBB(PCB): Ibiden 鴻海、 Nvidia
Board Tray TTM、滬電 緯創
OAM、網卡(HDI):
欣興100%
ODM- AMD、AWS Trainium:台光電 AMD:金像電、深南電路 Ibiden(NV/AMD) ODM廠 AMD、Intel、
GPU/ASIC AWS Inferentia、MGX、中系ASIC:聯 AWS Trainium:生益電子、滬士電、 AT&S(AMD) ODM(MGX)、
Board Tray 茂 高技 欣興(ASIC) ASIC(CSP廠商)
中系ASIC:生益 AWS Inferentia:生益電子、滬士電、 南電(ASIC)
Google TPC:Panasonic 金像電
Google TPU:金像電、ISU
MGX:金像電、滬士電、生益電子等
ODM- 台光電、台燿 GCE、TTM、ISU、 欣興、南電、 ODM廠 CSP廠商
SwitchBoard 健鼎等 景碩 (委託ODM設計)
CPU 台光電、生益(中系)、聯茂、 GCE、WUS、TTM、、VGT、ISU、 Ibiden、AT&S、 ODM廠 CPU廠商
Motherboard Panasonic、台燿 廣和科技、奧士康、健鼎等 欣興、南電 CSP廠商

【僅供內部教育訓練使用,嚴禁外流】 18
AI伺服器中的推論-L40S
 L40S採用非CoWoS製程,屬於RTX4000/6000系列的伺服器使用版本,未使用Nvlink傳輸,有利企業
級用戶採用,建立私人AI資料中心,與A/H100分屬不同的市場。
 應用:推論型AI(影響雲端廠商自研ASIC 和 AMD MI系列滲透)
 載板: 約10層的設計,供應商iBiden、欣興
 CCL供應商:採用M6 Very Low loss等級材料,主要供應商聯茂。
 OAM: 採用3階HDI設計,單價預估50~60美金,主要供應商勝宏科技,二供滬士電子。
 板卡:工業富聯獨供。
 ODM:廣達、Supermicro等。

表10:L40S與競爭產品規格比較
L40S MI300 Inferentia2 TPU v5e Gaudi2
廠商 Nvidia AMD Amazon Google Intel
製程 4nm 5nm 5nm 7nm 7nm
算力(TFLOPS) 91.6(FP32) 47.87(FP32) 47.5(FP32) 197(BF16) TBC
733(BF16) 312(BF16) 190(FP8/BF16)

記憶體 48G GDDR6 128GB(HBM3) 32GB(HBM) 32GB(HBM2) 96GB(HBM2E)


記憶體頻寬 864 GB/s 3,277 GB/s 820 GB/s 819 GB/s 2,450 GB/s
【僅供內部教育訓練使用,嚴禁外流】 資料來源:各公司、福邦投顧整理 19
關於H100的下一代版本-B100/GB200
表11: H100 VS.B100 VS. GB200 資料來源:產業調研、福邦投顧整理
名稱 H100 HGX B100/B200 HGX GB200 MGX NVL36/72
時間 22Q1發表, 24Q1發表,24Q2投片 25Q2量產
23上半年開始交貨 24Q3小量出貨
晶圓製程 4nm 4nm 4nm
配合的PCIE版本 5.0 5.0 6.0
CoWoS製程 CoWoS-S CoWoS-L 雙GPU封裝 CoWoS-L 雙GPU封裝
單晶圓可切割數(顆) 25~30 15~16 15~16
TDP/散熱方式 700W/氣冷 700W/氣冷 ,1000W/水冷 1,200W/水冷
載板供應商 IBiden獨家 IBiden獨家 Ibiden(B)、欣興(G)
-載板價格(USD/顆) 20~25 100+ 60+(Grace)/100+ (GPU)
CCL材料供應 • 台光電 • 斗山電子 • 台光電
OAM:EM-528K OAM:M7+M4 Switch Tray:M7+M4
UBB:EM-890K UBB:M7 • 斗山電子
OAM:M7+M4
• 聯茂
副板:M4~M6
CCL上游材料供應 玻布:Asahi、台玻 玻布:Asahi、台玻 玻布:Asahi(AST)、台玻
樹脂:Sabic、MGC、Asahi 樹脂:Sabic、MGC、Asahi 樹脂:Sabic、MGC、Asahi
銅箔:台銅、古河 銅箔:台銅、古河 銅箔:台銅、古河、金居
OAM PCB 製程 5階HDI(18層/5-8-5) 5階HDI(20層/5-10-5) 5階HDI(22層/5-12-5)
-OAM PCB供應商 欣興(獨)、勝宏科技(打樣) 欣興(獨)、WUS 欣興(獨)、WUS、勝宏
HGX UBB PCB製程/GB200 GPU Tray PCB 高多層板(通孔系)24L 高多層板(一壓)24L X
-UBB PCB供應商 TTM、滬電、勝宏(打樣) 欣興、TTM、滬電、ISU X
NVSwitch Tray PCB X X 欣興(獨)、WUS/24L (6-12-6)
L6供應商【僅供內部教育訓練使用,嚴禁外流】 緯創(UBB) 、 緯創(UBB)、 鴻海-FII (OAM) 20
關於H100的下一代版本-B100/GB200板層設計
資料來源:產業調研、福邦投顧整理
 A/H100時,HDI 採用M7(528K)的疊層架構,見左圖。
 GH200→B100→GB200時,HDI的設計上均採用混壓架構,使用M7+M4的疊層架構,見右
圖,Nvidia新一代的HDI設計多以混壓結構為主,有利節省成本。

圖9:H100 OAM HDI 核心範例 圖10:GH200/B100/GB200 OAM HDI 核心範例

資料來源:福邦投顧繪製 資料來源:福邦投顧繪製
註:圖中虛線為PP

【僅供內部教育訓練使用,嚴禁外流】 21
H100,B100,GB200 PCB/CCL-PCB產值升,CCL產值降
 H100的主板PCB產值預估213美金/GPU,至B100時可望提升至255美金/GPU,GB200時,可望提升至
NVL36的 473美金/GPU 、NVL72的341美金/GPU,分別提升122%、60%。
 CCL部分,H100時的產值約為63美金/GPU,B100時的產值提升7%;GB200時,受到設計影響,下滑至
NVL36的 18美金/GPU 、NVL72的13美金/GPU,分別下滑71%、79%。
資料來源:產業調研、福邦投顧整理預估
表12: H100 VS.B100產值
HGX CCL A100 H100 B100
HGX PCB產值 A100 H100 B100
CPU AMD Milan Intel EGS Intel EGS/Birch
CPU AMD Milan Intel EGS Intel EGS/Birch
16~18L多層
12~14L多層 16~18L多層 PCB 12~14L多層板 20L+ 多層板
PCB 20L+ 多層板 板
板 板 CPU主板
CPU主板 CCL 材質 M4 M6 M6
CCL 材質 M4 M6 M6 (4張)
(4張) 面積
面積 1.10 1.46 1.80
0.16 0.16 0.18 (平方米)/台
(平方米)/台
ASP(美元) 800 1,200 1,320 ASP(美元) 175 292 360
HDI 16L(4+8+4) 18L(5+8+5) 20L(5+10+5) HDI 16L(4+8+4) 18L(5+8+5) 20L(5+10+5)
CCL 材質 M6+ M6+ M7+M4 CCL 材質 M6+ M6+ M7+M4
OAM OAM
面積 面積
(8*4) 0.24 0.24 0.24 (8*4) 0.83 0.83 1.25
(平方米)/台 (平方米)/台
ASP(美元) 2,080 2,720 3,360 ASP(美元) 222 222 275
PCB 24L多層板 24L多層板 24L(低階一壓HDI) PCB 24L 24L 24L
CCL 材質 M7 M7 M7 CCL 材質 M7 M7 M7
UBB UBB
面積 面積
(4張) 0.23 0.23 0.23 (4張) 3.2 3.2 3.2
(平方米)/台 (平方米)/台
ASP(美元) 2,895 2,895 3,474 ASP(美元) 1,510 1,510 1,510
合計(美元) 5,775 6,815 8,154 合計(美元) 1,907 2,024 1,714
單GPU的PCB產值 180 213 255 單GPU的CCL產值 60 63 54
UBB供應鏈 TTM、滬電 TTM、滬電 TTM、滬電、欣興
【僅供內部教育訓練使用,嚴禁外流】 UBB供應鏈 台光電 台光電 斗山
22
OAM供應鏈 欣興、滬電 欣興 欣興 OAM供應鏈 台光電 台光電 斗山
GB200 PCB&CCL預估
表13: GB200 主板PCB&CCL 產值 資料來源:產業調研、福邦投顧整理預估
GB200 PCB主板產值 說明 NVL36 NVL72
CPU+GPU 1*Grace+2*B200 1*Grace+2*B200
HDI 22L (5+12+5) 22L (5+12+5)
ComputeTray(2*9/2*18) CCL等級 M7+M4 M7+M4
面積(平方米) 1.15 2.31
ASP(美元) 7,560 15,120
HDI 24L(6+12+6) 24L(6+12+6)
CCL等級 M7+M4 or M8+M6 M7+M4 or M8+M6
Nvlink Switch 模組板(1*9)
面積(平方米) 1.17 1.17
ASP(美元) 9,450 9,450
合計(美元) 17,010 24,570
單GPU的PCB產值 473 341
HDI 供應鏈 欣興、滬電 欣興、滬電
GB200 PCB主板CCL產值 說明 NVL36 NVL72
CPU+GPU 1*Grace+2*B200 1*Grace+2*B200
HDI 22L (5+12+5) 22L (5+12+5)
ComputeTray(2*9/2*18) CCL等級 M7+M4 M7+M4
面積(平方米) 5.76 11.53
ASP(美元) 317 634
HDI 24L(6+12+6) 24L(6+12+6)
CCL等級 M7+M4 M7+M4
Nvlink Switch 模組板(1*9)
面積(平方米) 5.85 5.85
ASP(美元) 322 322
合計(美元) 639 956
單GPU的CCL產值 18 13
【僅供內部教育訓練使用,嚴禁外流】
ComputeTray CCL 斗山 斗山
23
Nvlink Switch 模組板CCL 台光電 or 斗山 台光電 or 斗山
現有資料中心架構不利於AI訓練
傳統資料中心採用三層結構(縱向傳輸:用戶 to IDC or Cloud),雲端體系採用開放
式架構(Leaf-Spine),增加了更多橫向傳輸(資料中心內部),交換機數量變多,網路
規模擴大。
資料中心的葉脊架構若面臨流量增加,將會面臨網路阻塞,不利AI訓練需求;Nvidia的
Infiniband的Fat Tree架構,這類無阻塞技術在為確保網路頻寬不收斂,上下行頻寬需要
保持一致,有利光通訊模組的使用。
推理型架構方案可採用過去葉脊式設計,200G/400G為主的技術架構。
表14:資料中心架構比較
客戶類型 傳統企業 北美雲端 中國雲端 AI訓練
資料中心 資料中心 資料中心 資料中心
規模 小 大 中/大 大
價構 三層架構 Spine/leaf架構 Spine/leaf架構 Fat Tree架構
流量& 小 大 中/大 大
流向 南北向為主 東西向為主 東西向為主 東西向為主
光模組 1G/10G 50G/400G 25G/100G 400G/
速率 800G~1.6T
資料來源:Hisilicon 白皮書、產業調研、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 24
AI伺服器需求加速800G光通訊模組採用
Nvidia在2018年发布第一代NVSwitch,至今進入第三代;第三代在伺服器外部
添加第二層NVSwitch,以解決東西向GPU的串聯,NVLink網路一個POD可連結32個
伺服器,256個GPU,並提供57.6TB/s的頻寬。
根據Nvidia H100架構,Nvlink需要18對、36個OSFP(可用於800G),一個SUPER
POD需要36*32=1,152個800G光通訊模組,光通訊模組:GPU=3:1
圖9:NVidia H100方案

資料來源:NVidia、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 25
雲端資料中心光通訊速率技術路線圖(2023.12更
 新)
Google:2022年採用2*200G FR4 (OSFP、中際旭創供貨);2023年會提升採購
2*200G(需求量YOY+40%),以及採購800G和400G SR8產品。
 Amazon:2022年100G DR1、400G DR4為主;2023年開始採用2*200G FR4架構,上半
年有庫存調整影響,下半年會開始採購,2024年需求至約400萬支(VS.原2023年需求約
140~150萬支),新增的250~260萬支需求用於AI用途機率高。(新易盛、中際旭創),
2024年下半年可能轉400G矽光方案。
 Meta:2022年200G FR4為重心,佔有70%的市場,2023年與2022年200G需求YOY持
平,亦會開始部分轉換至400G。
 Microsoft:2022年公司著重在資料中心互聯,以400GZR/ZR+為主,以及Leaf to Spine 的
400G DR4; 2023年400G DR4和400GZR4+的需求量+30%。
 2023年出貨量約380萬套,2024年預估400G全年需求約800萬套(上游與800G重疊)。
表15:四大CSP速率路線圖
2020/2021 2022 2023 2024 2025-27 光收發模組
Google 400G 400G 400G→800G 800G→1.6T 1.6T OSFP
Amazon 400G 400G 400G 400G→800G 1.6T(26-27) QSFP-DD
Microsoft 400G 400G 400G→800G 800G→1.6T? 1.6T(26-27) OSFP/QSFP-DD
Meta 200G 200G 200G→400G 400G→800G 1.6T(25) QSFP-DD
資料來源:JPM、中際旭創、福邦投顧
【僅供內部教育訓練使用,嚴禁外流】 26
800G瓶頸將限制交換機出貨
 2023年800G採購量達150萬套(單模約100~110萬套(G的需求),多模50萬套(N的需求)。
 2024年800G需求達到1000萬套,其中多模40%,單模60%;Nvidia採購需求300萬套多
模+100萬套單模;Google採購需求300萬套(240萬套單模,60萬套多模);Meta約150萬
套;上游EML(Lumentum+Broadcom)產能可供應約350-400萬套單模,供應難以滿足
需求。
 2024年1.6T出貨量預估10萬套,預計在24Q4出貨,Nvidia報價2,000美金(傳統可插拔方
案)。
 2025年800G需求預估1,200萬套,1.6T(6月有望有25Q1的預期)。

 Google: 主要供應商為中繼旭創(佔比較高)、 Cloud Light (出貨30%單模)。


 Nvidia
• 主要供應商為中繼旭創(長距離)、Coherent(短距離) to Mellanox、
Mellanox自行開發(約12萬套,矽光版本,天孚通訊(光引擎)→Fabrinet組裝→DGX Cloud)
• 2024年將會有矽光DR4的供貨(中際旭創),預期運用在800G。
 微軟:光通訊模組透過交換器廠Arista、思科、Nvidia採購,協助NVidia建立資料中心。
 Meta:對於800G需求尚在觀望,考量開發時程,實際應用到800G的時間點預期落在2024H2。
 Amazon: 考量800G交換器研發進度遞延,Amazon 800G的相關需求約至2024H2~2025才有機會見
到需求開出,2024年仍會以400G為主。

 CPO方案:目前品牌端在CPO採用上興趣不高,仍是以傳統PCB設計為主,主要考量可靠度和維修
成本;NVidia會於2024年OFC展中強調會加快NVLink往光傳輸發展,未來也將使用CPO方案。

【僅供內部教育訓練使用,嚴禁外流】 27
交換機市場:2024年800G加速
根據Dell’Oro數據,資料中心交換器市場於2022年時,產值約在157億美元,
其中100G佔43%、200G佔比4%,400G佔15%;2023年200G比重提升至
6%(YOY+75%);2023/24年400G比重提升至20%(YoY+43%)/28%(YoY+46%);2023/24年
800G佔比從1%提升到4%(YOY+394%)、14%(YOY+267%);至2027年交換器產值預估
可達到220億美元,2022-27CAGR+8%,
圖11:交換器速率營收組成&成長性預估
25,000 25.00%
1600G+ 800G 400G 200G 100G 50G 40G 25G 10G 1G YOY(右軸)

20,000 20.20% 20.00%

15,000 15.00%

10.83%
10,000 9.91% 10.00%
7.71%
5.78%
5,000 4.99% 5.00%

- 0.00%
2021 2022 2023F 2024F 2025F 2026F 2027F

【僅供內部教育訓練使用,嚴禁外流】 資料來源:Dell’Oro(202302)、福邦投顧 28
單位:百萬美元
交換機板:主流AI層數下滑,傳統乙太網多層為主
 資料中心需要承載流量大+高速傳輸,在此需求下,高多層板成為此需求的解決方案,
其優點在於電子元件間連線縮短下,訊號傳輸速度提高,而且也方遍佈線。
乙太網交換機在400G的層數要求在24層以上,平均是Whitley/Milan伺服器的2倍,也較
100G增加36%;進入AI/ML領域,預期800G將成為主流,800G出貨單價較400G翻倍。
Mellanox採用六階HDI設計,有別於傳統多層板設計,有利高階HDI製程能力廠商。
根據板廠和材料廠的訪查,800G交換器預計2024H2進入小量,2025年放量,主要材料廠
商為台光電、斗山、Panasonic、台燿,全球市占率預估:台光電>60%、斗山15~20%、
Panasonic 10~15%、台燿5~10%。
表16:交換器供應鏈劃分
板層數劃分 產品 銅箔基板主要供應商 PCB主要供應商 出貨價格
400G 台光電 TTM、滬士電、
Cisco
800G 台光電 金像電、ISU
400G 台光電 TTM、滬士電、
Arista
800G 台燿、台光電 金像電、ISU
400G :300~400美金
400G:24~36L多層板 400G 台光電/Doosan/松下 金像電、ISU
Celestica 800G:1,000美金
800G:38~48L多層板 (NPO:28L) 800G 台光電/Doosan/松下 金像電、ISU
800G HDI:2,000美金
(NV 24L HDI) 400G 台光電 TTM、ISU、高技
(每平方公尺)
Edgecore TTM、ISU、高技、
800G 台光電/Doosan
金像電?
400G 台光電 TTM、滬士電
Mellanox
800G 台光電、Doosan? TTM、滬士電
【僅供內部教育訓練使用,嚴禁外流】 資料來源:產業調查,福邦投顧整理 29
交換機的材料升級不如預期順利
在交換機升級的過程中,由於高速傳輸需求,對於耗損也是嚴格規範,800G材
料價格則會較400G材料增加40%;若交換機採用飛線設計下,板材僅需要採用
400G等級材料,目前此設計主要由Nvidia體系採用。
表17:各速率材料概況
100G 400G、800G(飛線)800G、1.6T(飛線) 1.6T
Extreme
材料耗損等級 Very low loss (Super )Ultra low loss TBD
Ultra low loss
Df 0.005~0.006 ~0.003 ~0.002 TBD
頻率 13Ghz(NRZ) 13Ghz(PAM4) 28Ghz(PAM4) 56Ghz(PAM4)
PPO+LowK/
設計 PPO PPO+Low K Glass 碳氫樹脂+Q Glass
LowK2 Glass
平均單價/張 1,000~2,000 2,000~3,000 3,000~4,000 TBD
代表型號 松下M6 松下M7 松下M8 松下M9
ThunderClad ThunderClad
TU883 ThunderClad 5
3+/3/2SP/2A 4SN/4SR
IT 968/968G IT988G IT998GSE TBD
競爭同業
產品儲備 EM-528/626 EM-528K/EM-890K EM-892K/K2 EM-896K3
Synamic 6/6N Synamic 8GN Synamic 9GN TBD
DS7409DQN2/
DS7409DV(N) DS7409DJG(N) TBD
DS8502SQ
資料來源:各公司,福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 30
AI應用之始-AI NB/PC:雲端與本地的協作
AI PC: 雲端與本地端協同合作,利用雲端的大數據處理能力來完善本地端的PC使用情
境,依賴雲端算力來提升本地端的性能。
根據聯想的定義,AI PC 能夠建立本地資料庫,執行個人大模型,支持人工智慧計算,
運用自然交換的更強大、更具創造能力的智慧生產力工具,其中最重要的是能夠使用自身
的資料庫,在保護用戶隱私安全前提下,滿足用戶客製化需求。
表18:傳統 PC與AI PC的比較
傳統PC AI PC
硬體 依賴通用電腦硬體 整合專用AI硬體,例如CPU+NPU+GPU架構

軟體 主要使用通用的電腦軟體 透過人工智慧軟體集合300多項AI加速功能
具備更強的能耗表現和AI體驗,以實現更好的智慧
性能 效能普通,執行一般任務和娛樂
協作
效率 低,需要更多軟硬體配合 高,雲端協作
簡化操作介面
易用性 操作複雜
門檻低
應用領域 基礎辦公,資料處理等傳統功能 學習式,智慧分析預測,機器學習等
運用感測器,簡化交互,與用戶自然互動,例如語
交互體驗 仰賴鍵盤和滑鼠
音識別、免接觸等
成本 低 中 資料來源:聯想、群智諮詢、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 31
整合NPU的AIPC晶片持續推出,Arm架構產品轉趨積極
NPU整合於CPU的產品,首見於Apple M1~M2晶片,M2 Ultra的算力可達31.6 Tops,AMD的7系列產品,亦整合了
10Tops算力的NPU。

Intel:推出AI加速計畫,推出Meteor lake產品,預計2025年支持一億台AI PC。

AMD:推出XDNA架構,可以離線網路和雲端在本地PC/NB執行AI工作,亦可在端~雲的混合場景運行;8系列NPU算力
達到16 Tops。

高通:透過採用混合AI架構,將雲端推理和邊緣PC運算結合,推出X Elite。(ARM架構)

Nvidia:與聯發科在NB/PC的模組化方案上,預期採用天磯系列的CPU,搭配Nvidia的GPU產品推出。(ARM架構)

表19:各家AI PC 用CPU整理
Intel AMD NVidia 高通 蘋果
產品 14th Core Ultra Ryzen 8系列 MTK 天磯9500?+NV GPU Snapdragon M3→M4
X Elite
架構 x86 x86 ARM ARM ARM
製程 Intel 4(7nm)+ TSMC TSMC 3nm TSMC 4 nm TSMC 3nm
TSMC6/5nm 4 nm/3 nm
總算力 34 TOPS 39 TOPS TBC 75 TOPS TBC

AI引擎算力 11TOPS 16TOPS TBC 45 TOPS 18 TOPS→38.4


TOPS
AI能力 整合NPU, 整合AI NPU, 整合NVLINK 具備處理 M4搭載10核
可支持PC/NB的 較7系列提升 130億參數 CPU+10核
高效AI加速和本地推理 1.6倍的AI處理能力 模型能力 GPU+16核NPU

【僅供內部教育訓練使用,嚴禁外流】 資料來源:產業調查、福邦投顧整理 32
2024年大廠AI PC/NB產品陸續問世
2024年品牌客戶將陸續推出搭載NPU核心的產品,若需要滿足Microsoft
Copilot運行需求(算力需要40TOPS+),均要搭載獨立顯卡因應。
根據IDC(2024.1)預估,2024年含NPU功能的AI PC出貨量可望達到4,900萬台,
至2027年出貨量可達到1.67億台,CAGR+42.7%。
表20:近期品牌廠產品彙整 圖12:AI PC出貨量預估(百萬台)
ASUS Lenovo Dell HP 180 70.0%
發佈 2023.12.15 2023.12.15 2024 CES展 2023.12.14 出貨量 滲透率
時間 160
60.0%
58.7%
型號 Zenbook14 小新Pro 2024 XPS 16 OMEN 16
140
(UX3405MA)
50.0%
CPU Intel Core™ Intel Core™ Intel Core™ Intel Core™ 120 45.4%
Ultra 7 155H Ultra /Ryzen 7 Ultra Ultra 9
100 40.0%
GPU Intel Arc IGPU RTX系列 RTX 4070 RTX 4070 35.6%
155H 80 30.0%
RTX 40系列
記憶體 32GB DDR5 32GB DDR5 32~64GB 32GB DDR5 60
7467Mhz 7467Mhz DDR5 19.0% 20.0%
40
硬碟 1TB 1TB~5TB(擴充) 512GB~4TB 1TB
9.7% 10.6% 10.0%
20
電池容 75Whr 84Whr 99.5Whr 97Whr
量 0 0.0%
【僅供內部教育訓練使用,嚴禁外流】 33
售價 6K RMB 7,999 RMB 11-1萬NTD 8.4萬NTD 2022 2023F 2024F 2025F 2026F 2027F
2024年換機潮將現,為復甦的主要動能
福邦投顧認為,2024年PC/NB市場的復甦關鍵,在於Win10升級Win11,和AI對於規格的
要求提昇(AI Ready)所帶來的換機潮。
根據IDC 2023.8的調查指出,當前約24%大型企業用戶(樣本158家)、14%中小企業用戶
(樣本225家)已將作業系統升級至Win11,隨著Windows 10將於2025年10月停止更新下,
45%大型企業用戶和37%中小型企業用戶傾向於2024年完成升級至Windows 11。
根據IDC預估,2023年PC/NB出貨量達2.53億台,YoY-13.3%,2024年在換機潮和AI
PC/NB的帶動下,可望迎來復甦,預估出貨量可達2.65億台,YoY+4.8%。
圖13:全球PC/NB出貨量預估 出貨量(左軸) 年成長率(右軸)
400,000,000 20%
17.4% 16.7%
350,000,000 15.3% 15.1% 15%
13.7% 13.6%
12.1%
11.0% 10.8%
300,000,000 10%

250,000,000 5.1% 4.8% 5.5% 5%


2.5% 3.2%
1.7% -0.2% 2.2% 1.6%
200,000,000 0.0% 0%
-2.1%
-3.7% -4.0%
150,000,000 -5.7% -5%

100,000,000 -9.8% -10.6% -10%

-13.3%
50,000,000 -15%
-16.6%

- -20%

【僅供內部教育訓練使用,嚴禁外流】 34
PC/NB 相關PCB供應要求-材料升級
載板:CPU換代時,出貨比重最高的NB(70-80%)載板變化不大;出貨量的提升,才有利載板供應商稼
動率表現,預期會以日本Ibiden(Intel)和AT&S(AMD)為主要供應商,而非市場認知的台廠同步受惠。
硬板:CCL仍以Standard loss為主,部分會有往Mid Loss升級;AI相關應用優先於商務型機種採用
下,有利出貨商務電腦的主機板PCB廠商,此類製程要求以HDI為主。
表21:PC/NB PCB供應要求
Intel AMD
產品 Core™ Ultra Ryzen 8000 series
PCIE 5.0 4.0
載板要求(VS.前代) DT:Intel(耗用面積+29%/10L),AMD面積維持不變(12L)
NB:面積層數維持不變(10L)
ABF供應商 • Intel: Ibiden(優先供應商/優先滿足)、Shinko、欣興(日
商供應不及的備案)、AT&S、Semco
• AMD: AT&S(優先供應商)、南電、欣興
CCL等級要求 Standard-Loss→Mid-Loss
供應商 聯茂、南亞、台光電
主機板製程要求 6層~一~四階HDI(往商務款越高階)
供應商 金像電、健鼎、華通、瀚宇博德等
資料來源:產業訪查、各公司、Prismark、福邦投顧整理
【僅供內部教育訓練使用,嚴禁外流】 35
AI最全面的應用-自動駕駛
Tesla AI Day公布其軟體架構,採用BEV(鳥瞰圖)+Transformer+時間序列模型
和自動標示算法+向量地圖,來提升特斯拉的智慧駕駛軟體能力。
 Tesla FSD Beta→Supervised,性能隨著版本升級下,軟體性能顯著提升。

圖14:特斯拉AI DAY自動駕駛神經網路模型 表22:近期FSD更新版本


FSD版本 時間 升級內容節錄
12.3.6 2024.4月 • 12.3.3加入端到端神經網路,進入
Supervised 駕駛監督時期
• 12.3.5 強化路況識別、交通情況處
理。
• 12.3.6新增新的自動停車和更強的
停車輔助系統。
Beta 12 2023.11月底 • 首次採用NPU進行車輛控制
• 可沿著彎道行駛、交叉路口
先停再通行、左右轉彎
• 可自動駛入/駛出高速公路
Beta 11.4 2023.5.10 • 部分切入召回率提高39%
• 車道變換到鄰近車道導致假陽性
切入的精度提高66%
• 車道變化預測誤差減少33%
• 光子控制車輛延遲提高2%
資料來源:Tesla,福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 36
因應自動駕駛需求,特斯拉硬體持續升級
2023年4月,特斯拉發布新一代HW4.0自動駕駛域控制器,採用特斯拉自行研發
的FSD 2.0晶片,算力預期將是HW3.0 2~3倍。
表23:特斯拉HW1.0~4.0規格整理
HW1.0 HW2.0 HW 2.5 HW3.0 HW4.0
上市時間 2014.9~2016.10 2016.10~2017.8 2017.8~2019.4 2019.4~2023.3 2023H2
攝像頭(顆) 2 8 8 8 11+1(備用)
前向毫米波雷達 前向毫米波雷 前向毫米波雷達 前向毫米波雷達 4D毫米波雷達
毫米波雷達(顆)
(Bosch) 達(Bosch) (Continental) (Continental) (鳳凰/Arbe?)
Nvidia Parker Nvidia Parker
Mobileye EyeQ3 Tesla FSD 1.0 *2 Tesla FSD 2.0*2
SoC SoC*2
處理器
Nvidia Pascal
Nvidia Pascal GPU 神經網路加速器NPU*2 第二代自研NPU*2
GPU
Infineon TriCore Infineon TriCore
MCU MCU
FPS 36 110 110 2300 TBC
TOPS 0.256 12 12 144 300~500
記憶體 6GB 8GB
16GB,8xLPDDR4 32GB,16xGDDR6
娛樂系統板、自動駕駛板 CPU 和GPU 整合於
設計
獨立兩塊板子 一張PCB上
高速公路NOA、壅塞、複雜的道路都市和高速公路NOA、有交通號誌的複雜路段、
應用 高速公路和行車
環境 停車標誌等
主動巡航控制/輔
基本功能 助轉向/自動變換 車庫召喚/車道維持/自動調整車速 自動辨識紅綠燈、路標等複雜路段並自動控制
【僅供內部教育訓練使用,嚴禁外流】 37
車道/自動停車
自動駕駛所需的算力要求
當前主流搭載L2/L2+等級的算力要求達到200Tops,往L3前進下,算力要求更加提高。
表24:自動駕駛等級L2~L5算力需求
自動駕 名稱 算力要求 應用範圍 應用晶片
駛級別 (TOPS)
L2 組合駕駛輔助 10 ACC、LCC、AEB、APA Mobileye EQ4
Nvidia Drive PX1/2
L2+ 200 ALC、 Nvidia Drive Orin
NOA(自動輔助導航駕駛) Mobileye EQ6
Tesla FSD 1.0
L3 有條件 500 車輛特定情況有條件自動 Tesla FSD 2.0
自動駕駛 化,駕駛根據情況回應 昇騰610
L4 高度自動駕駛 2000 車輛特定情況自動化, 高通 Ride Flex
駕駛解放雙手 Nvidia Thor
L5 完全自動駕駛 / 無人駕駛 /
資料來源:CSDN、NVidia、高通、Mobileye、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 38
電子電氣-E/E架構升级方式
Bosch汽車電子電氣架構分成三大階段,每個大階段分為兩個小階段
• 分散式架構:模組化(ECU對應單一功能)、整合化(ECU整合多功能),傳統車廠處在此階段。
• 跨域集中式架構:域內集中(域控制器對應單一域)、跨域融合(跨域控制器同時控制多個域),例
如:特斯拉等新創車廠位在此階段。
• 車輛集中式電子電氣架構: 車輛融合(一個車載中央電腦控制全車域控制器)、車輛雲端計算(更
多車輛附加功能由雲端來執行),此為終極目標(並朝向往人形機器人發展)。

圖15:E/E電子電氣架構圖

資料來源:Bosch、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 39
域控制器技術要求
域:指控制汽車的功能模組電子電氣架構的集合,每一個域由一個域控制器進行統一控
制,域控制器的出現,能解決分散式ECU協作性差的缺點,以下為Bosch定義的五個控制
域,其中以自動駕駛域技術含量最高。

表25:五大域控制域规格
控制器 晶片性能要求 計算能力 操作系統 應用方向
類型
動力域 32bit MCU 要求較低 符合CP 控制轉向/驅動等底盤
AutoSAR標準 執行單位
底盤域 32bit MCU 要求較低 控制驅動/制動/轉向等
底盤操作功能
車身域 32bit MCU 要求較低 在原有BCM上整合更多
功能
座艙域 高性能 40~200K DMIPS Linux客製化系 單一晶片多螢幕等智慧
SOC 晶片 統 駕駛艙功能
自動駕駛域 高性能AI晶片 20~1000TOPS QNX或Linux 自動駕駛感測、判斷
即時操作系統
資料來源:Bosch 、蓋世汽車、福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 40
自動駕駛控制域是汽車智慧化的重要關鍵
自動駕駛控制域是L3等級以上的關鍵:自動駕駛控制域是E/E架構中最重要的關鍵;高
等級的自動駕駛,需要處理Camera、Radar、Lidar等各種感測資訊,並在短時間完成計算
和制定決策,這類處理過程均需要透過自動駕駛控制域處理。

表26:域控制域構成 圖16:自動駕駛域控制器架構
組成 功能
硬體 計算晶片 處理圖片、進行深度學習、輸出識
別結果/感測器融合/軌跡預測
Safety MCU 處理安全要求較高的資料運算
記憶體 儲存資料
散熱 氣冷/水冷散熱,提高域控制器效率
密封金屬外殼 保護
PCB 內部元件承載
插槽 外接攝像頭、雷達、光達等
軟體 底層操作系統 基礎汽車操作等

中層軟體 軟硬體協調和即時通訊 資料來源:EDN電子技術設計、福邦投顧整理

上層應用軟體 執行汽車智慧化功能
【僅供內部教育訓練使用,嚴禁外流】 41
L2+等級汽車快速發展,域控制器同步受惠
IDC(2022.8)預估2022-2026年,L1~L4等級汽車出貨量將以CAGR+14.8%的成長率,從
2021年的4,400萬台(L2+~L4 3%)成長至8,900萬台(L2+~L4 24%)。
麥肯錫(2023.1)報告指出,2020年時域控制器的產值達920億美金,預估至2025年可達
1,290億美金、2030年可達1,560億美金,2020-30CAGR+5%,其中自動駕駛域隨著L3以上的
發展下(2025/2030 10%/21%),成長最為顯著。

圖17:全球自動駕駛汽車出貨量預期 圖18:2025~2030域控制器市場
SAE Level 1 SAE Level 2 (單位:十億美金)
100,000.00 20
SAE Level 2+ SAE Level 3 180
90,000.00 18
SAE Level 4 整體成長率(%)-右軸 160
80,000.00 16
70,000.00 14 140
45
120 動力域
60,000.00 12
39 車身域
50,000.00 10 100 30 主動安全
40,000.00 8 80 27 29 娛樂域
26
30,000.00 6 60 底盤域
23 11
26 自動駕駛域
20,000.00 4 40
19 13
10,000.00 2 20 14 34
0.00 0 13
2021 2022F 2023F 2024F 2025F 2026F 0 0
2020 2025(F) 2030(F)

【僅供內部教育訓練使用,嚴禁外流】 42
自動駕駛下對PCB的要求
表27:傳統汽車與具備自動駕駛功能汽車PCB比較
傳統汽車 具備L2級別自動駕駛功能汽車
架構 分散式架構 域控制架構
晶片 ECU SOC+MCU
車規認證時間 系統級認證0.5~1年→產品認證(車廠ABC)
樣品板至車廠整車上市約2-3年
產品保證 10年+
CCL 要求 Standard loss MidLoss、雷達板(碳氫)、光達板(鐵氟龍)
供應商 聯茂、台光電、南亞、生益、Rogers等
PCB製程要求 傳統板2-6L 從傳統多層~4階HDI製程能力
毛利率 10~20% 20%~30%,越高階製程有機會到40%+
供應商 Meiko、CMK、 自動駕駛控制域-四階HDI(健鼎、定穎、TTM)
敬鵬、AT&S等 智慧座艙域-二階HDI+(健鼎、定穎、勝宏)
雷達-多層板(滬電、定穎、燿華、臻鼎)
資料來源:產業訪查,福邦投顧整理

【僅供內部教育訓練使用,嚴禁外流】 43
重點PCB、CCL公司產品比重與客戶
股票代號 股票名稱 產品組合 客戶 資料來源:各公司,福邦投顧整理
2368 金像電 伺服器60% AI伺服器PCB供應能力:CPU主板、SwitchBoard、非Nvidia體系OAM加速
交換器20~25% 卡、UBB
高階產能在台灣、蘇州 伺服器:微軟、Google、Amazon、Meta、Supermicro、Dell、HP、Intel、
AI: 20% AMD;交換器:Arista、Cisco、Celestica
8155 博智 伺服器50~70% AI伺服器PCB供應能力:CPU主板、UBB
主要產能台灣 伺服器:Supermicro、Dell
5349 高技 網通40%、伺服器目標10% 伺服器(AI):Intel-Gaudi、Amazon-Tranium(副板)
主要產能台灣 交換器/Smart NIC :智邦(台灣廠)
3044 健鼎 伺服器20% AI伺服器PCB供應能力:CPU主板、SwitchBoard
主要產能中國無錫 伺服器:Dell、微軟、Amazon、Meta
3715 定穎 伺服器~4%,目標5~10% AI伺服器PCB供應能力:OAM
主要產能中國黃石 OAM:Broadcom、Cisco
3037 欣興 ABF 20%+(16L以上) Nvidia、AMD硬板供應;ASIC 載板供應商
HDI 19% 伺服器:Nvidia (OAM、NVL SwitchBoard)
AI:10~20% 晶片:Intel、AMD、Nvidia(L40S、NVSwitch)、Broadcom等
主要產能台灣、中國
8358 金居 RG系列>40% 伺服器新平台銅箔主供、LEO板材銅箔主供、斗山M8銅箔供應
2383 台光電 基礎設施55-60% GPU/ASIC客戶:Nvidia、AMD、Intel
AI:28% 伺服器:微軟、Amazon、Meta、Dell、HP
交換器:Cisco、Arista、Mellanox、Celestica、Edgecore等
6213 聯茂 基礎設施58% GPU客戶:NVidia
伺服器:微軟、Amazon、Meta、Dell、HP、Supermicro
6274 台燿 高速材料45% 伺服器:微軟、Amazon、Meta、Supermicro、Dell、HP、ZT、技嘉
交換器:Arista

【僅供內部教育訓練使用,嚴禁外流】 44
重點PCB、CCL公司獲利預估
股票 股票
股本(百萬) 總市值(億) 23EPS 24EPS(F) 25EPS(F) 24PE 25PE
代號 名稱
2368 金像電 4,918 937 7.2 11.7 15.9 16 12
3037 欣興 15,251 2,799 7.8 6.9 12.4 27 15
3044 健鼎 5,256 1,156 11.5 16.5 18.7 13 12
3715 定穎 2,776 172 3.6 5.7 7.2 11 9
5439 高技 930 88 5.1 6.8 9.1 14 10
8155 博智 512 76 4.0 7.9 10.3 19 14
8358 金居 2,526 164 2.1 4.1 5.1 16 13
2383 台光電 3,439 1,406 16.2 26.6 27 15 15
6213 聯茂 3,630 381 1.9 5.6 10.2 19 10
6274 台燿 2,710 469 3.1 10.2 12.3 17 14
資料來源:福邦投顧整理預估(2024.05.14)

【僅供內部教育訓練使用,嚴禁外流】 45
謝謝指教
Q&A
【揭露事項與免責聲明】
本報告僅提供相關部門的內部教育訓練及相關人員之參考資料,並非針對特定客戶所作的投資建議,且在
本報告撰寫過程中,並未考量讀者個別的財務狀況與需求,故本報告所提供的資訊無法適用於所有讀者。
本報告係根據本公司所取得的資訊加以彙集及研究分析,本公司並不保證各項資訊之完整性及正確性。本
報告中所提出之意見係為本報告出版當時的意見,邇後相關資訊或意見若有變更,本公司將不會另行通知
。本公司亦無義務持續更新本報告之內容或追蹤研究本報告所涵蓋之主題。本報告中提及的標的價格、價
值及收益隨時可能因各種本公司無法控制之政治、經濟、市場等因素而產生變化。本報告中之各項預測,
均係基於對目前所得資訊作合理假設下所完成,所以並不必然實現。本報告不得視為買賣有價證券或其他
金融商品的要約或要約之引誘。
可能個別基於特定目的且針對特定人士出具研究報告、提供口頭或書面的市場看法或投資建議(下稱“提
供資訊”),鑑於提供資訊之單位、時間、對象及目的不同,本報告與本集團其他單位所提供資訊可能有
不一致或相牴觸之情事;本集團各單位對於本報告所涵蓋之標的可能有投資或其他業務往來關係,各單位
從事交易之方向亦可能與本報告不一致,讀者應審慎評估自身投資風險,自行決定投資方針,不應以前述
不一致或相抵觸為由,主張本公司或本集團其他成員有侵害讀者權益之情事。
附錄

GB200 工程驗正板 GB200 正式量產板

【僅供內部教育訓練使用,嚴禁外流】 48

You might also like