 |
TrendForce看好CSP及主權雲需求 估2026年AI伺服器出貨增20% (2025.10.30) 根據TrendForce最新AI server產業分析,2026年因來自雲端服務業者(CSP)、主權雲的需求持續穩健,對GPU、ASIC拉貨動能將有所提升,加上AI推理應用蓬勃發展,預計全球AI server出貨量將年增20%以上,占整體server比重上升至17% |
 |
韓國三星與SK海力士聯手OpenAI 加速全球AI基礎設施競賽 (2025.10.01) 韓國兩大記憶體製造巨頭三星電子(Samsung Electronics)與SK海力士(SK Hynix)宣布一項合作案,將與OpenAI攜手,共同推動全球AI基礎設施的發展。這項合作是在韓國總統李在明陪同下,與OpenAI執行長Sam Altman會面後正式確立的,標誌著韓國在全球AI競賽中的關鍵角色 |
 |
SK海力士HBM4全球首量產 頻寬翻倍、功耗效率大增40% (2025.09.15) 南韓半導體大廠SK海力士(SK hynix)今日宣布,已完成新一代高頻寬記憶體HBM4的開發並進入量產,成為全球首家量產該規格的廠商,為AI市場投下震撼彈。
相較前代產品,HBM4的頻寬直接翻倍,功耗效率提升超過40%,運行速度更超越10Gbps的產業標準 |
 |
CPO與 LPO 誰能主導 AI 資料中心? (2025.09.12) 傳統電連接逐漸無法滿足 AI GPU/TPU 所需的龐大資料傳輸,促使 光電整合成為必然趨勢。其中,CPO與 LPO兩種不同架構的方案,正成為全球大廠與台灣光通訊供應鏈的競逐焦點 |
 |
台灣供應鏈突圍與全球先進封裝競局 (2025.09.08) 本文聚焦台灣供應鏈如何化解卡點,並延伸至HBM4/HBM4e技術節點與美日韓擴產後的全球競局。 |
 |
AI熱潮推升HBM需求 SK海力士登上全球DRAM收入冠軍 (2025.09.03) AI運算浪潮持續升溫,高頻寬記憶體(HBM)也成為推動產業轉型的關鍵核心。根據最新市場調查,HBM 在資料中心 AI 伺服器與先進 GPU 應用需求的帶動下,出現前所未有的成長 |
 |
SK hynix:AI專用記憶體市場年增30% HBM成長動能強勁 (2025.08.12) 韓國記憶體大廠SK hynix近日預測,未來數年內專為人工智慧(AI)應用設計的記憶體市場將以每年約30%的速度快速成長,其中,高頻寬記憶體(HBM)系列產品將成為主要推動力 |
 |
三星Q2獲利大幅下滑 仰賴Tesla訂單與HBM策略重振榮光 (2025.08.01) 2025 年第二季,Samsung公布財報顯示,其營業利潤年減 55%,其中以晶片部門表現最為低迷,已連續四季呈現虧損,凸顯全球記憶體市場與先進製程壓力尚未完全緩解。不過,隨著 AI 應用快速擴張,Samsung 也找到了潛在轉機:近期正式與 Tesla 達成總值高達 165 億美元的晶片代工協議,預計將成為公司半導體事業的重要支撐 |
 |
美光HBM4已送樣主要客戶 12層堆疊36GB記憶體助攻AI運算 (2025.06.12) 美光科技今日宣布,其12層堆疊36GB HBM4記憶體已送樣給多家主要客戶。其 1β(1-beta)DRAM 製程、經驗證的12層的記憶體內建自我測試(MBIST)功能,是專為開發下一代AI平台所設計 |
 |
HBM4加速AI創新發展 美光12層堆疊HBM4送樣多家客戶 (2025.06.12) 隨著生成式 AI 蓬勃發展,推動資料中心與雲端運算能力不斷向上突破,高頻寬記憶體(HBM)扮演的角色變得前所未有地關鍵。美光科技12層堆疊、容量36GB的HBM4記憶體已送樣給多家客戶,標誌著AI運算架構進入全新里程 |
 |
SK海力士展示HBM4技術 預計2025下半年量產 (2025.04.28) 韓國SK海力士公開展示12層HBM4及16層HBM3E技術。此次展示的HBM4容量最高可達48 GB,頻寬為2.0 TB/s,I/O速度為8.0 Gbps,並預計於2025年下半年開始量產。
同時亮相的還有全球首款16層HBM3E,其頻寬達到1.2 TB/s |
 |
工研院IEK眺望2025:半導體受AI終端驅動產值達6兆元 (2024.10.23) 基於2024年全球半導體市場的蓬勃發展,產業內的技術創新與市場競爭日益激烈。工研院橫跨兩週舉行的「眺望2025產業發展趨勢研討會」,於今(22)日上午率先登場的是「2025半導體產業新紀元:半導體市場趨勢、技術革新與應用商機場次,為台灣半導體廠商提出鏈結國際市場及全球新格局先機的策略建言 |
 |
AI運算方興未艾 3D DRAM技術成性能瓶頸 (2024.08.21) HBM非常有未來發展性,特別是在人工智慧和高效能運算領域。隨著生成式AI和大語言模型的快速發展,對HBM的需求也在增加。主要的記憶體製造商正在積極擴展採用3D DRAM堆疊技術的HBM產能,以滿足市場需求 |
 |
當工業4.0碰到AI (2024.07.26) 未來一年中,製造商的前三大重點投資包含GenAI、協作型機器人、自主移動機器人(AMR)與自動引導車(AGV)。從數據看未來,AI智慧生產很快將成為全球製造業日常。 |
 |
美光正式量產HBM3E 功耗較前代降低約 30% (2024.02.27) 美光科技今宣布,其 8 層堆疊 24GB HBM3E解決方案已正式量產。美光 HBM3E 解決方案將應用於 輝達 H200 Tensor Core GPU,預計於 2024 年第二季出貨。
美光執行副總裁暨事業長 Sumit Sadana 表示:「美光在 HBM3E 此一里程碑上取得了三連勝:領先的上市時間、業界最佳的效能、傑出的能源效率 |