8月2日消息 據(jù)市場研究公司 最新報告">TrendForce 最新報告指出,新型芯片2023 年 HBM(高帶寬存儲器)市場的加速主導產(chǎn)品是 HBM2e,該產(chǎn)品由英偉達 A100/A800、或助和廣州外圍(外圍預約)外圍包夜(微信199-7144=9724)一二線城市可以快速安排,真實上門外圍上門外圍女30分鐘到達AMD MI200 以及大多數(shù)云服務提供商的導年自主開發(fā)的加速器芯片所采用。
隨著對 AI 加速器芯片需求的市場不斷發(fā)展,制造商計劃在 2024 年推出新的新型芯片 HBM3e 產(chǎn)品,預計 HBM3 和 HBM3e 將成為明年市場的加速主流。
HBM 各代之間的或助和區(qū)別主要在于速度。在過渡到 HBM3 一代時,導年行業(yè)中出現(xiàn)了許多令人困惑的市場命名。TrendForce 明確指出,新型芯片當前市場上所謂的加速 HBM3 應分為兩個速度類別。一個類別是或助和廣州外圍(外圍預約)外圍包夜(微信199-7144=9724)一二線城市可以快速安排,真實上門外圍上門外圍女30分鐘到達運行速度在 5.6 至 6.4 Gbps 之間的 HBM3,另一個類別是導年 8 Gbps 的 HBM3e,也被稱為 HBM3P、市場HBM3A、HBM3+和 HBM3 Gen2 等多種名稱。
三大主要制造商 SK 海力士、三星和美光在 HBM 的發(fā)展狀態(tài)上存在差異。SK 海力士和三星從 HBM3 開始著手,該技術被用于英偉達的 H100/H800 和 AMD 的 MI300 系列產(chǎn)品中。預計這兩家制造商還將在 2024 年第一季度開始提供 HBM3e 樣品。與此同時,美光選擇跳過 HBM3,直接開發(fā) HBM3e。
HBM3e 將采用 24Gb 單芯片堆疊,并在 8 層(8Hi)基礎上,單個 HBM3e 的容量將達到 24GB。預計這將應用于英偉達的 GB100,該產(chǎn)品將于 2025 年推出。因此,主要制造商預計將在 2024 年第一季度發(fā)布 HBM3e 樣品,并計劃在 2024 年下半年開始大規(guī)模生產(chǎn)。
云服務提供商正在開發(fā)自己的 AI 芯片,以減少對英偉達和 AMD 的依賴。在 AI 服務器加速器芯片領域,英偉達繼續(xù)占據(jù)最高市場份額。然而,英偉達的 H100/H800 GPU 價格在每臺 2 萬至 2.5 萬美元之間,再加上 AI 服務器的推薦配置需要 8 張卡,大大增加了總擁有成本。因此,雖然云服務提供商將繼續(xù)從英偉達或 AMD 采購服務器 GPU,但同時計劃開發(fā)自己的 AI 加速器芯片。
科技巨頭谷歌和亞馬遜 AWS 已在這一領域取得了重大進展,其中谷歌成立了 Tensor 處理單元(TPU),AWS 推出了 Trainium 和 Inferentia 芯片。此外,這兩個行業(yè)領導者已經(jīng)在努力開發(fā)下一代 AI 加速器,將采用 HBM3 或 HBM3e 技術。
此外,北美和中國的其他云服務提供商也正在進行相關驗證,預示著未來幾年 AI 加速器芯片市場可能出現(xiàn)激烈競爭。